机器学习(一):线性回归原理推导及代码实现

声明:本节内容并非自己原创,看过一些书籍和视频整理所得,后面会将引用到的文献写出来

一、原理

线性回归算法是机器学习的基础,蕴含着机器学习中的一些重要的基本思想,很多机器学习的算法都是从这些基础算法演变而来,如果函数曲线是一条直线,那被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归。线性回归可分为单变量线性回归和多变量线性回归,这里我们分开讲一下:

二、单变量线性回归

先将公式推导的过程展示出来,这里公式推导直接是多变量的,单变量也类似,只是特征个数更少,最后结合具体的实例进行代码的实现:
单变量线性方程:

现在我们的目标就是求解其中的两个未知数。接下来我们求一下损失函数:

我们的目的是求出一条直线使得所有的点到这条直线对应点的距离之和最小,也就是我们的损失函数:
当样本量非常大的时候我们求得误差值会非常大,所以这里我们求完平方和之和再除以样本量,降低计算的负担;至于除以2,是因为后期我们求导数时会提出来一个2,这样是为了方便计算,对结果并没有影响,接下来我们的目标就是求

关于如何求解这个方程,这里我们使用梯度下降算法:梯度下降算法是说从某个起始theta对值开始,寻找最快的下降方向往下走,在路途上也不断地寻找最快下降的方向更改路线,最后到达一个局部最低点。

首先我们将上式写成矩阵的形式:
其中:
梯度下降算法就是:不断重复求出

α在这里是一个数字,被称为学习效率(learning rate),在梯度下降算法中,它控制了我们下山时会迈出多大的步子。因此如果α比较大,那我们用大步子下山,如果它比较小,我们就迈着很小的小碎步下山。
这样我们将式子代入求解得:
我们转换一下公式:

这里要注意一下转换的过程,我们提取出来X的时候要做转置操作。
最后我们的梯度下降函数就是:

接下来我们用代码实现一下,举一个例子:如果你要开一个饭店,想根据人口数量预测一下利润,那我们就可以根据已有的数据利用线性回归预测一下。
这里我使用的是jupyter编写的python代码实现的,首先是导入需要的包以及数据集(需要的在下方留言

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
 data=pd.read_csv('data1.txt',names=['population','profit'])
data.head()

我们取数测试一下



我们使用matplotlib下的一个绘图的包

data.plot.scatter('population','profit',label='population')
plt.show()

我们在第一行开始插入一列常数1:

data.insert(0,'ones',1)
data.head()

接下来我们进行切分,将人口数量和利润切开

X=data.iloc[:,0:-1]#第一列到倒数第二列的所有行
X.head()
y=data.iloc[:,-1]#最后一列
y.head()

切片出来的数据是DataFrame格式需要转换成数组格式。转换的方法是:使用df.values(比较简单)

X=X.values
X.shape#获取转换后数组的维度

接下来我们将y的数据转换并查看一下维度,为了方便计算,同时我们将y的数组进行二维处理

接下来我们定义一下损失函数:

def costFunction(X,y,theta):
    inner=np.power(X @ theta-y,2)
    return np.sum(inner)/(2 * len(X))

然后初始化一下theta:定义为(2,1)维

接下来定义梯度下降算法:

def gradientDescent(X,y,theta,alpha,iters):
    costs=[]
    for i in range(iters):
        theta=theta-(X.T @ (X@theta-y))*alpha/len(X)
        cost=costFunction(X,y,theta)
        costs.append(cost)
        
        if i%100 ==0:
            print(cost)
    return theta,costs

初始化一下参数,iters定义的是迭代次数为2000次,每100次输出损失函数

alpha=0.02
iters=2000
theta,costs=gradientDescent(X,y,theta,alpha,iters)

可视化损失函数:

fig,ax=plt.subplots()#fig是图像,ax是一个实例
ax.plot(np.arange(iters),costs)
ax.set(xlabel='iters',ylabel='cost',title='cost vs iters')
plt.show()

拟合函数可视化

x=np.linspace(y.min(),y.max(),100)#定义横坐标的最大最小值以及包含的个数
y_=theta[0,0]+theta[1,0]*x#拟合曲线
fig,ax=plt.subplots()
ax.scatter(X[:,1],y,label='training data')
ax.plot(x,y_,'r',label='predict')
ax.legend()#初始化一下图标
ax.set(xlabel='population',ylabel='profit')
plt.show()

三、多变量线性回归

多变量的线性回归的结果并不能像单变量那么方便的展示在二维平面,这里我们没有进行拟合函数的可视化操作,只是对比了损失函数和迭代次数之间的关系,首先我们先来看一下数据集,假设你现在要卖房子,你想看一下房子能卖多少钱,房子的价格和面积、卧室数目之间的关系我们已经有了:

第一列是房子的面积,第二列是卧室的数目,第三列是房子的价格。
接下来我们进行数据的预处理:特征归一化,之所以要特征归一化是消除特征值之间的量纲影响,各特征值处于同一数量级,还可以提升模型的收敛速度和精度。
特征归一化的两种方法:

1、标准化:将量化后的特征服从标准正态分布(本文使用这种方法):
其中,u和delta分别为对应特征向量的均值和标准差。量化后的特征将分布在[-1,1]区间。
2、Min-Max normalization:

量化后的特征服从[0,1]
代码实现:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
data=pd.read_csv('data2.txt',names=['size','bedrooms','price'])
def normalize_feature(data):#特征归一化
    return (data-data.mean())/data.std()
data=normalize_feature(data)
data.head()

接下来我们添加全为1的列:

然后我们作分离,前三列为x,最后一列为y

X=data.iloc[:,0:-1]
y=data.iloc[:,-1]

可以使用.head查看一下,这里就不演示了。
接着将dataFrame转换成数组

X=X.values
y=y.values
y=y.reshape(47,1)

损失函数不变:

def costFunction(X,y,theta):#X,y,theta并不是一个数,而是一个矩阵
    inner=np.power(X @ theta-y,2)
    return np.sum(inner)/(2 * len(X))
theta=np.zeros((3,1))#theta是一个3x1的矩阵

梯度下降算法做了部分改变:

def gradientDescent(X,y,theta,alpha,iters,isprint=False):
    costs=[]
    for i in range(iters):
        theta=theta-(X.T @ (X@theta-y))*alpha/len(X)
        cost=costFunction(X,y,theta)
        costs.append(cost)
        
        if i%100 ==0:
            if isprint:
                 print(cost)      
    return theta,costs

我们设置它的alpha学习率和迭代次数:

candinate_alpha=[0.0003,0.003,0.03,0.0001,0.001,0.01]
iters=2000

接下来我们输出一下:

fig,ax=plt.subplots()
for alpha in candinate_alpha:
    _,costs=gradientDescent(X,y,theta,alpha,iters)
    ax.plot(np.arange(iters),costs,label=alpha)
    ax.legend()
ax.set(xlabel='iters',ylabel='cost',title='cost vs iters')
plt.show()

这就是theta取值在不同迭代次数下的损失函数的变化。

最后我们使用正规方程(最小二乘法)在进行推导一下,代码效果没有展示:

最后我们总结一下梯度下降算法和正规方程之间的关系(这是我从网上截取的一张图片):

四、岭回归

岭回归是一种专门用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际,更可靠的回归方法,对病态数据的拟合要强于线性回归。具有L2正则化的线性最小二乘法(降低高维的权重)。

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LinearRegression,SGDRegressor,Ridge
from sklearn.metrics import mean_squared_error

def linear():
    """
    线性回归预测房价
    """
    #获取数据集
    lb = load_boston()
    print(lb.target)
    #分割数据集
    x_train,x_test,y_train,y_test = train_test_split(lb.data,lb.target,test_size=0.25)

    #特征标准化(特征值与目标值都需要标准化,实例化两个标准化API)
    std_x = StandardScaler()
    x_train = std_x.fit_transform(x_train)
    x_test = std_x.transform(x_test)

    std_y = StandardScaler()
    y_train = std_y.fit_transform(y_train.reshape(-1,1))#0.19版本之后要求数据必须是二维的
    y_test = std_y.transform(y_test.reshape(-1,1))

    #estimator预测
    #正规方程求解方式预测结果
    lr = LinearRegression()
    lr.fit(x_train,y_train)
    # print(lr.coef_)
    #预测房子价格
    y_predict = std_y.inverse_transform(lr.predict(x_test))
    # print("房价预测为:",y_predict)
    # print(std_y.inverse_transform(y_test))

    #使用梯度下降算法进行预测
    sgd = SGDRegressor()
    sgd.fit(x_train,y_train)
    #预测房子价格
    sgd_y_predict = std_y.inverse_transform(sgd.predict(x_test))
    print("房价预测为:",sgd_y_predict)
    # print(std_y.inverse_transform(y_test))

    #使用岭回归进行预测分析
    rd = Ridge(alpha=1.0)
    rd.fit(x_train,y_train)
    rd_y_predict=std_y.inverse_transform(rd.predict(x_test))


    #使用均方误差计算两种预测方法的好坏
    print("使用正规方程计算的误差:",mean_squared_error(std_y.inverse_transform(y_test),y_predict))
    print("使用梯度下降算法计算的误差:",mean_squared_error(std_y.inverse_transform(y_test),sgd_y_predict))
    print("使用岭回归计算的误差:", mean_squared_error(std_y.inverse_transform(y_test), rd_y_predict))
    return None

if __name__ == "__main__":
    linear()


由于数据集太小的原因,从上面的结果可能看不出梯度下降算法和岭回归算法的优势,不过相对于大数据的应用我们更常用后两种算法,正规方程计算用于出现过拟合现象。
这里我写出来我参考的一些资料:
周志华,《机器学习》
李航,《统计学习方法》
https://www.cnblogs.com/hiyoung/archive/2018/10/09/9763599.html
https://blog.csdn.net/qq_36829091/article/details/79918968
还有b站的一些视频讲解(主推up主:ladykaka007)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,294评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,780评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,001评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,593评论 1 289
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,687评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,679评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,667评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,426评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,872评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,180评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,346评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,019评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,658评论 3 323
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,268评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,495评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,275评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,207评论 2 352

推荐阅读更多精彩内容