机器学习系列(二十二)——多项式回归

多项式回归

前面我们学习过线性回归,线性回归模型需要假设数据背后存在线性关系。

线性回归

而实际中,有线性关系的数据集比较少,更多的数据之间是非线性关系。进而——多项式回归产生。
其实多项式回归完全是线性回归的思路,只是相当于在原来的数据上增加了二次项、三次项、...等更高次的多项式特征项,然后用线性回归求解。

二次多项式回归

下面以一个例子来感受一下多项式回归,首先生成模拟数据集:

import numpy as np
import matplotlib.pyplot as plt
x = np.random.uniform(-3,3,size=100)
X = x.reshape(-1,1)
y = 0.5 * x**2 +x +2 +np.random.normal(0,1,size=100)
plt.scatter(x,y)
plt.show()

大致符合二次曲线y=0.5x^{2}+x+2,加入了人工的高斯噪声,图示如下:

数据集分布

首先用线性回归模型求出回归方程,并作出回归方程:

'''线性回归'''
from sklearn.linear_model import LinearRegression
lin_reg = LinearRegression()
lin_reg.fit(X,y)
y_predict = lin_reg.predict(X)
plt.scatter(x,y)
plt.plot(x,y_predict,color='r')
plt.show()

回归方程图示:

线性回归结果

从图中可以明显看出,线性回归的效果在该数据集上不够好,有没有解决办法呢?那就是添加一个原特征的二次方项特征,然后对这两个特征做线性回归,这就是最简单的多项式回归,这里我们已经知道数据符合二次分布了,实际中的数据可能要用到更高次幂的多项式特征:

X2 = np.hstack([X,X**2])
lin_reg2 = LinearRegression()
lin_reg2.fit(X2,y)
y_predict2 = lin_reg2.predict(X2)
plt.scatter(x,y)
plt.plot(np.sort(x),y_predict2[np.argsort(x)],color='r')#有序排序后绘制曲线
plt.show()

添加二次项后的回归结果:

多项式回归

此时的回归结果已经好很多,我们可以查看回归系数:

回归系数和截距

和真实数据的系数和截距是吻合的。


scikit-learn中的多项式回归和pipeline

添加多项式特征

现在来看一下sklearn中的多项式回归,实际上sklearn并没有为多项式回归封装类,只是可以为它方便生成带多项式特征的数据集,然后再用线性回归求解:

from sklearn.preprocessing import PolynomialFeatures
'''添加最多degree次幂特征'''
poly = PolynomialFeatures(degree=2)
poly.fit(X)
X2 = poly.transform(X)
X2.shape //out:(100,3)
X2[:5,:]
多项式特征

可以看到sklearn添加多项式特征后,自动为我们补了一列1,这相当于x的0次幂,这样求得的系数里会有0。

from sklearn.linear_model import LinearRegression
lin_reg2 = LinearRegression()
lin_reg2.fit(X2,y)
lin_reg2.coef_

求解结果:

系数与截距

求解结果和我们添加二次特征后求解结果一样。

sklearn中的pipeline

从上面看来好像每次使用多项式回归都需要先加入多项式特征,然后实际中往往还要对数据进行归一化,最后再使用线性回归求解,这样繁琐的过程很容易让人蒙圈。为此:sklearn为我们提供了一个叫pipeline的类,这个类可以很方便地将多个步骤封装到一块,按照pipeline里我们定义的顺序执行:

from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
'''传入步骤对应的类'''
poly_reg = Pipeline([
    ("poly",PolynomialFeatures(degree=2)),
    ("std_scaler",StandardScaler()),
    ("lin_reg",LinearRegression())
])

上面我们就定义了一个pipeline,里面就是多项式回归的三个步骤:添加特征,归一化,线性回归求解。下面求解此模型

'''沿着pipeline顺序执行'''
x = np.random.uniform(-3,3,size=100)
X = x.reshape(-1,1)
y = 0.5 * x**2 +x +2 +np.random.normal(0,1,size=100)

poly_reg.fit(X,y)
y_predict = poly_reg.predict(X)
plt.scatter(x,y)
plt.plot(np.sort(x),y_predict[np.argsort(x)],color='r')#有序排序之后绘制曲线
plt.show()

求解结果图示:

pipeline-多项式回归

可以看到定义好pipeline之后,看起来好像一个步骤就能求解了。


本篇主要是多项式回归的介绍,和PCA相比,PCA要实现数据降维,而多项式回归则是要对数据升维,这是机器学习中很重要的数据处理思想。具体是升维还是降维要针对不同数据集。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,864评论 6 494
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,175评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,401评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,170评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,276评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,364评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,401评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,179评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,604评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,902评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,070评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,751评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,380评论 3 319
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,077评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,312评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,924评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,957评论 2 351

推荐阅读更多精彩内容