多元线性回归

实现了基于线性最小二乘、基于梯度下降法、基于随机梯度下降法的多元线性回归。计算中发现对一元回归,三者均有较高的R方值;对多元回归,基于线性最小二乘的拟合精度最好,后两者精度较差。其原因为梯度下降法由于起始点选择的原因可能陷入局部最优。

源程序

import numpy as np
from sklearn import datasets
from sklearn.metrics import r2_score

class LinearRegression:

    def __init__(self):
        """初始化Linear Regression模型"""
        self.coef_ = None
        self.intercept_ = None
        self._theta = None  

    def scaling(self, X_train, predict_X):
#        """最值归一化"""
#        scaling_X = np.ones(shape=original_X.shape)
#        for i in range(original_X.shape[1]):
#            scaling_X[:,i] = (original_X[:,i] - np.min(X_train[:,i]))/(np.max(X_train[:,i])-np.min(X_train[:,i]))

        """均值方差归一化"""
        scaling_X = np.empty(shape=X_train.shape)
        mean_X = np.empty(shape=X_train.shape[1])
        std_X = np.empty(shape=X_train.shape[1])
        for i in range(X_train.shape[1]):
            scaling_X[:,i] =(predict_X[:,i] - np.mean(X_train[:,i])) / (np.std(X_train[:,i]))
            mean_X[i] = np.mean(X_train[:,i])
            std_X[i] = np.std(X_train[:,i])
        return scaling_X, mean_X, std_X

    def fit_normal(self, X_train, y_train):
        """根据最小二乘法训练Linear Regression模型"""
        assert X_train.shape[0] == y_train.shape[0], \
            "the size of X_train must be equal to the size of y_train"
        X_b = np.hstack([np.ones((len(X_train), 1)), X_train]) #自变量左边加上全为1的一列
        self._theta = np.linalg.inv(X_b.T.dot(X_b)).dot(X_b.T).dot(y_train) #计算拟合的函数值

        self.intercept_ = self._theta[0].copy() #截距
        self.coef_ = self._theta[1:].copy() #系数

        return self

    def fit_gd(self, X_train, y_train, eta=0.01, n_iters=1e4):
        """根据训练数据集X_train, y_train, 使用梯度下降法训练Linear Regression模型"""
        assert X_train.shape[0] == y_train.shape[0], \
            "the size of X_train must be equal to the size of y_train"

        def J(theta, X_b, y):
            try:
                return np.sum((y - X_b.dot(theta)) ** 2) / len(y)
            except:
                return float('inf')

        def dJ(theta, X_b, y):
#             res = np.empty(len(theta))
#             res[0] = np.sum(X_b.dot(theta) - y)
#             for i in range(1, len(theta)):
#                 res[i] = (X_b.dot(theta) - y.reshape(-1)).dot(X_b[:, i])
#             return res * 2 / len(X_b)
            return (X_b.T).dot(X_b.dot(theta) - y.reshape(-1)) * 2 / len(y) #X_b.dot(theta)计算结果为一个一维向量

        def gradient_descent(X_b, y, initial_theta, eta, n_iters=1e4, epsilon=1e-8):

            theta = initial_theta.copy() #初始化拟合参数向量
            cur_iter = 0 #迭代循环次数

            while cur_iter < n_iters:
                gradient = dJ(theta, X_b, y)
                last_theta = theta.copy()
                theta = theta - eta * gradient
                if (abs(J(theta, X_b, y) - J(last_theta, X_b, y)) < epsilon):
                    break

                cur_iter += 1

            return theta
        
        X_train, mean_X_train, std_X_train= self.scaling(X_train, X_train)
        X_b = np.hstack([np.ones((len(X_train), 1)), X_train])
        initial_theta = np.zeros(X_b.shape[1])
        self._theta = gradient_descent(X_b, y_train, initial_theta, eta, n_iters)

        #将所拟合的参数做归一化的逆向运算
        self.intercept_ = self._theta[0] - np.sum(self._theta[1:] * mean_X_train / std_X_train)
        self.coef_ = self._theta[1:] / std_X_train

        return self

    def fit_sgd(self, X_train, y_train, n_iters=5, t0=5, t1=50):
        """根据训练数据集X_train, y_train, 使用随机梯度下降法训练Linear Regression模型"""
        assert X_train.shape[0] == y_train.shape[0], \
            "the size of X_train must be equal to the size of y_train"
        assert n_iters >= 1

        def dJ_sgd(theta, X_b_i, y_i):
            return X_b_i * (X_b_i.dot(theta) - y_i) * 2.

        def sgd(X_b, y, initial_theta, n_iters, t0=5, t1=50):

            def learning_rate(t):
                return t0 / (t + t1)

            theta = initial_theta.copy()
            m = len(X_b)

            for cur_iter in range(n_iters):
                indexes = np.random.permutation(m)
                X_b_new = X_b[indexes].copy()
                y_new = y[indexes].copy()
                for i in range(m):
                    gradient = dJ_sgd(theta, X_b_new[i], y_new[i])
                    theta = theta - learning_rate(cur_iter * m + i) * gradient

            return theta

        X_train, mean_X_train, std_X_train= self.scaling(X_train, X_train)
        X_b = np.hstack([np.ones((len(X_train), 1)), X_train])
        initial_theta = np.random.randn(X_b.shape[1])
        self._theta = sgd(X_b, y_train, initial_theta, n_iters, t0, t1)

        #将所拟合的参数做归一化的逆向运算
        self.intercept_ = self._theta[0] - np.sum(self._theta[1:] * mean_X_train / std_X_train)
        self.coef_ = self._theta[1:] / std_X_train

        return self
    
    def predict(self, X_predict):
        """给定待预测数据集X_predict,返回表示X_predict的结果向量"""
        assert self.intercept_ is not None and self.coef_ is not None, \
            "must fit before predict!"
        assert X_predict.shape[1] == len(self.coef_), \
            "the feature number of X_predict must be equal to X_train"
       
        X_b = np.hstack([np.ones((len(X_predict), 1)), X_predict])
        return X_b.dot(self._theta)

    def score_normal(self, X_test, y_test):
        """根据测试数据集 X_test 和 y_test 确定最小二乘模型的准确度"""

        y_predict = self.predict(X_test)
        return r2_score(y_test, y_predict)
    
    def score_gd(self, X_train, X_test, y_test):
        """根据测试数据集 X_test 和 y_test 确定梯度下降、随机梯度下降模型的准确度"""

        X_test, mean_X_train, std_X_train= self.scaling(X_train, X_test)
        y_predict = self.predict(X_test)
        return r2_score(y_test, y_predict)

    def __repr__(self):
        return "LinearRegression()"

#boston = datasets.load_boston()
##print (boston.DESCR)
#X_train = boston.data
#y_train = boston.target
#X_train = X_train[y_train<50]
#y_train = y_train[y_train<50]

X_train = np.random.normal(3,4,size = (100,3))
y_train = X_train.dot(np.array([[1], [2], [3]])) + 3 + np.random.normal(0,1,size = (100,1))

Linearmodel = LinearRegression()

Linearmodel.fit_normal(X_train, y_train)
print(Linearmodel.score_normal(X_train, y_train))
print(Linearmodel.intercept_, Linearmodel.coef_, '\\n')

Linearmodel.fit_gd(X_train, y_train, eta=1e-3, n_iters=1e5)
print(Linearmodel.score_gd(X_train, X_train, y_train))
print(Linearmodel.intercept_, Linearmodel.coef_, '\\n')

Linearmodel.fit_sgd(X_train, y_train, n_iters=500, t0=5, t1=50)
print(Linearmodel.score_gd(X_train, X_train, y_train))
print(Linearmodel.intercept_, Linearmodel.coef_, '\\n')

python tips

X_b.dot(theta) - y.reshape(-1)的计算中X_b.dot(theta)计算结果为一个1001一维向量,y为一个1001的矩阵,虽然只1列,但仍为二维矩阵,故两者相减将报错。

对于使用基于梯度下降法、基于随机梯度下降法的多元线性回归均需要进行数据归一化,而基于最小二乘的线性回归不需要。

np.hstack([A, B])将A、B两矩阵水平方向拼合;np.vstack([A, B])将A、B两矩阵竖直方向拼合;np.concatenate([A, B],axis=1)通过制定axis值控制水平和竖直方向的拼接。

函数shuffle与permutation都是对原来的数组进行重新洗牌(即随机打乱原来的元素顺序);区别在于shuffle直接在原来的数组上进行操作,改变原来数组的顺序,无返回值。而permutation不直接在原来的数组上进行操作,而是返回一个新的打乱顺序的数组,并不改变原来的数组。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容

  • 概括 理解多重线性回归的应用 , 潜在问题和评估模型拟合的方法 , 是更复杂机器学习方法的核心 学习了如何在Pyt...
    IntoTheVoid阅读 4,722评论 0 12
  • 前言 一元线性回归只是让我们好理解回归这个概念。在实际中特征很少说只有一个。所有就有多元线性回归。 概念 与一元线...
    skullfang阅读 1,616评论 0 5
  • 概述 之前我们讲了最基本、最简单的一元线性回归算法,本章主要讲解多元线性回归,以及梯度下降、特征缩放和正规方程解等...
    AnuoF阅读 2,170评论 1 1
  • 之前的文章中已经讲述了简单的一元线性回归的基础知识,现在我们来继续讨论多元线性回归。本文针对吴恩达机器学习第二周课...
    Carey_Wu阅读 1,012评论 0 5
  • 大公司有一套完整的运营体系 小公司没有什么运营体系可言 大公司学到的是一套完整的工作流程 小公司则比较杂,没什么可...
    鹿角小姐阅读 66评论 0 0