2023-10-09机器学习

梯度下降:

需要选择初始值,进行多次迭代,特征很多效果也很好

最小二乘法(正规方程):

不需要选择初始值,不进行多次迭代,特征很多运算很慢

数据预处理:

去噪:移动窗口平均:定义一个宽度是窗口,将某点作为窗口中心点,取整个窗口平均值作为该中心点的值。

特征尺度归一化:

    范围归一化:

    中心化:

    标准化:

降维:

    主成分分析(PCA):在最大化保留原始信息的条件下,压缩矩阵

    特征选择:找到与预测目标相关的特征

    多项式回归:h_{\theta } (x)=\theta _{0} +\theta _{1}x +\theta _{2}x^2  +...+\theta _{n}x^n


加权最小二乘:

Loss=w_{1} e_{1}^2 +w_{2} e_{2}^2 +w_{3} e_{3}^2 +w_{4} e_{4}^2

4号点是离群点,因此4号点的影响应该越小越好,因此引入权重矩阵W,使得4号点的权重最小

加权的用处:稳健回归,局部回归


逻辑回归:(回归和分类)

分类器,条件概率

逻辑回归是用来做分类算法的,大家都熟悉线性回归,一般形式是Y=aX+b,y的取值范围是[-∞, +∞],有这么多取值,怎么进行分类呢?把Y的结果带入一个非线性变换的Sigmoid函数中,即可得到[0,1]之间取值范围的数S,S可以把它看成是一个概率值,如果我们设置概率阈值为0.5,那么S大于0.5可以看成是正样本,小于0.5看成是负样本,就可以进行分类了。

sigmoid函数:sigmoid(x)=\frac{1}{1+\frac{1}{e}  }

1.线性模型与Sigmoid函数合体



这样我们就把取值控制在了0或1上,初步达成了我们的目标。

因此,条件概率有:

损失函数(交叉熵):


化简得:

求损失函数最小值时的w的两种方法:

梯度下降和牛顿法:

https://blog.csdn.net/weixin_55073640/article/details/124683459

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 一. 数学基础 1. 最大似然估计,最大后验概率、贝叶斯估计 参考: https://blog.csdn.net/...
    木木xixi1997阅读 1,651评论 0 1
  • 本文编译自谷歌开发者机器学习术语表项目,介绍了该项目所有的术语与基本解释。 A 准确率(accuracy) 分类模...
    630d0109dd74阅读 2,061评论 0 1
  • 注:题中所指的『机器学习』不包括『深度学习』。本篇文章以理论推导为主,不涉及代码实现。 前些日子定下了未来三年左右...
    我偏笑_NSNirvana阅读 40,157评论 12 145
  • 接触机器学习时间也不短了, 趁国庆放假, 做一下深度整理. 1. 大纲 若想在企业胜任算法相关岗位知识, 除了掌握...
    婉妃阅读 3,434评论 2 92
  • 1、引言 简单说,算法就是:解决问题的手段,并且是批量化解决问题的手段。 比如你想要木头桌子,那么制造桌子的工厂就...
    冰河winner阅读 471评论 0 1