cross-validation

一开始提出的是LOOCV方法:每次取出一个数据作为测试集的唯一元素,其他n-1个元素作为训练集哟用于训练模型和调参。经过n个模型,每次一个MSE(均方误差),将他们取均值得到test MSE。但是计算量太大。

K-fold Cross Validation:K折交叉验证。
将数据分成n份,不重复的取其中一份做测试集,用其他四份做训练模型,之后计算该模型MSE,取均值。k一般取5或者10.

如果是分类问题,CV = 1/N(求和第i个模型在第i组测试集上分类错误的个数)

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容