2021-04-10 ch4模型泛化和过拟合

泛化和过拟合

构建泛化能力强的模型

  1. 正确的数据
  2. 合适的模型(图像:CNN)
  3. 合适的优化算法(梯度下降、adam)
  4. 避免模型过拟合

过拟合:训练集上拟合好,但在测试集上表现差
通常,一个模型存在过拟合现象的时候,它的参数趋向于变大。

L1和L2正则
由于使用L1正则之后,很多参数变成了0,这自然就起到了特征选择的目的。让模型的参数变稀疏。
L1正则所存在的潜在的问题:
1、计算上的挑战 无法很好地融合到梯度下降法,对于||w||, w=0时,0点没有梯度。
2、特征选择上的挑战。 对于相似特征上,是随机筛选。解决方法可以是结合L1+L2 。在成千上万个特征选某几个时会用L1.

关于L2参数λ:绝对值变大的时候,L2范数的值也会相应地变大,这就跟最小化目标函数是矛盾的。所以加入L2范数之后,优化过程倾向于选择绝对值小的参数

image.png


MAP 和 MLP

最大似然估计(MLE, Maximum Likelihood Estimation)和最大后验估计 MAP之间也有着特殊的关系:当数据量无穷多的时候,最大后验估计的结果会逼近于最大似然估计的结果。这就说明,当数据越来越多的时候,先验的作用会逐步减弱。

MLE 寻找θ使得 P(D|θ) 最大
MAP 寻找θ使得 P(θ|D) 最大


image.png

θ_MAP = argmax P(D|θ)·P(θ) 似然概率·先验概率


image.png

当样本量很小的时候,应加入先验概率,否则容易被样本迷惑,参考癌症看病的例子 4-4 PART1。同时也相当于一个正则项,不同先验概率分布相当于不同正则项,比如高斯分布=L2正则。

参数服从高斯分布=L2正则

参数服从拉普拉斯分布=L1正则

当样本量无穷大时,MAP趋向于MLP。因为MLE部分权重随N变大而变大,prior权重相应变小


image.png
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 1. 最小二乘法(Least squares) 最小二乘法是一种数学优化技术,它通过最小化误差的平方来寻找数据的最...
    Deepool阅读 8,043评论 0 26
  • (1)什么是正则化 1、从结构风险化角度,解释什么是正则化 经验风险其实就是样本本身带来的误差。结构风险就是学习器...
    只为此心无垠阅读 2,217评论 0 2
  • 一. 数学基础 1. 最大似然估计,最大后验概率、贝叶斯估计 参考: https://blog.csdn.net/...
    木木xixi1997阅读 1,655评论 0 1
  • 接触机器学习时间也不短了, 趁国庆放假, 做一下深度整理. 1. 大纲 若想在企业胜任算法相关岗位知识, 除了掌握...
    婉妃阅读 3,434评论 2 92
  • 一、标准神经网络与贝叶斯神经网络 通过优化的标准神经网络训练(从概率的角度来看)等同于权重的最大似然估计(MLE)...
    申申申申申申阅读 11,510评论 0 5