一元线性回归

一元线性回归公式\hat{y} =b_{0} +b_{1} X_{i} ,下面我们我们以一组数据求解一下



b1=5

b0=20-5*2=10

在回归方程的图示中,还有一个R^2,这个值叫做判定系数,用来衡量回归方程是否很好的拟合了样本的数据。判定系数在0-1之间,值越大说明拟合的越好,换句话说就是自变量对因变量的解释度越高。判定系数的计算公式为SST=SSR+SSE,其中SST是总平方和,SSR是回归平方和,SSE是误差平方和。

SSE 为the sum of squares due to error

SST为Total sum of squares

SSR为sum of squares of the regression

SSR=\sum_{1}^n(\hat{y_{i} }-y_{i}   )^2

SST=\sum_{i}^n (y_{i}-\bar{y} )^2

SSE=\sum_{1}^n (\hat{y_{i} }- \bar{y})^2

R^2=\frac{SSR}{SST}

在本例中R2=14/114=0.1228,说明拟合的并不好。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 摘要 一元线性回归可以说是数据分析中非常简单的一个知识点,有一点点统计、分析、建模经验的人都知道这个分析的含义,也...
    程sir阅读 42,648评论 7 75
  • 从只含一个自变量X的情况开始,成为一元线性回归。假定回归模型为Y=b0+b1X+eb0,b1为未知参数,b0为常数...
    耳朵和爪子阅读 9,626评论 0 2
  • 小白的自制力太差啦,所以打算每天写个文章,督促一下。希望在枯燥的学习中找到适合自己的前进方式。机器学习中有很多算法...
    pengli阅读 3,427评论 0 0
  • 所谓的一元线性回归其实就是找到一条直线,使得该条直线可以以最小的误差(Loss)来逼近拟合训练数据 最小二乘法配合...
    PrivateEye_zzy阅读 9,603评论 3 6
  • 端午 我回家了 我要脱掉我的棉袜子 扔掉我的运动鞋 露出我的大脚板 踩踩故乡的泥巴路 我要一蹦一跳到田间 看看我家...
    稻子未熟阅读 3,192评论 2 4