一开始提出的是LOOCV方法:每次取出一个数据作为测试集的唯一元素,其他n-1个元素作为训练集哟用于训练模型和调参。经过n个模型,每次一个MSE(均方误差),将他们取均值得到test MSE。但是计算量太大。
K-fold Cross Validation:K折交叉验证。
将数据分成n份,不重复的取其中一份做测试集,用其他四份做训练模型,之后计算该模型MSE,取均值。k一般取5或者10.
如果是分类问题,CV = 1/N(求和第i个模型在第i组测试集上分类错误的个数)
一开始提出的是LOOCV方法:每次取出一个数据作为测试集的唯一元素,其他n-1个元素作为训练集哟用于训练模型和调参。经过n个模型,每次一个MSE(均方误差),将他们取均值得到test MSE。但是计算量太大。
K-fold Cross Validation:K折交叉验证。
将数据分成n份,不重复的取其中一份做测试集,用其他四份做训练模型,之后计算该模型MSE,取均值。k一般取5或者10.
如果是分类问题,CV = 1/N(求和第i个模型在第i组测试集上分类错误的个数)