深层神经网络简单介绍(2)

1/过拟合的原因:

(1)数据问题:数据量太少,不能抽象出全量特征

(2)模型问题:模型的参数过多,模型参数过大  (使得模型不够光滑)

(3)算法问题:模型的参数取值差异过大  (也使得模型不够光滑)


2/深层神经网络如何防止过拟合:

(1)L1,L2正则化(多数情况下使用L2正则):

降低模型参数的权重,使得模型的参数不至于过大,从而使得模型偏向于光滑

(2)dropout方法(一种训练技巧)

dropout通过随机缺失,可以防止模型参数过多,同时也可以降低模型参数的权重,另外随机失活相当于产生多个不同的神经网络,从而减少了方差

(3)early stop:

如何做:首先将训练数据划分为训练集和验证集(划分比例为2:1); 在训练集上进行训练,并且在验证集上获取测试结果(比如每隔5个epoch测试一下),随着epoch的增加,如果在验证集上发现测试误差上升,则停止训练;最后将停止之后的权重作为网络的最终参数。

(4)扩增训练数据集


3/训练和测试集合的特征归一化:

为何需要进行特征归一化?  为了加快训练的速度,如下图:

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容