啦啦啦啦

标准化归一化的目的:让各个特征的重要性一致,减少各个特征取值范围不同造成的影响。

集成学习:

* Bagging:将训练集随机采样成若干子训练集,产生若干基模型

>基模型:强模型(低偏差高方差)、训练目标:关注方差,专注于增强模型的泛化能力。

* Boosting:不断改变样本权重构建若干训练集,产生若干基模型

>基模型:弱模型(高偏差低方差)、训练目标:关注偏差

* Stacking:第一层(将训练好的基模型对训练集和测试集进行预测,产生新的数据集)

                    第二层(基于新的数据集,再次训练模型产生最终的预测结果)

>基模型:强模型(低偏差高方差)


模型的偏差:训练出来的模型在训练集上的准确度。

模型的方差:模型泛化能力的大小(源头:数据抽样的随机性带来了模型的随机性)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容