K-fold Cross Validation

顾名思义:K折交叉检验。

我们将data分为training data 、 validation data 、test data

training data(训练数据):用于调整weights,越多越好

validation data(检验数据):用于最小化过拟合

test data(测试数据):用于测试model,不可与training data相同


How to split?

在某篇paper中,选择了80% training data, 10% validation data,10% test data. 可取

K折交叉检验:

就是把原始的数据随机分成K个部分。在这K个部分中,选择一个作为测试数据,剩下的K-1个作为训练数据。

交叉检验的过程实际上是把实验重复做K次,每次实验都从K个部分中选择一个不同的部分作为测试数据(保证K个部分的数据都分别做过测试数据),剩下的K-1个当作训练数据进行实验,最后把得到的K个实验结果平均。

k通常是10


K-fold Cross Validation_第1张图片


K-fold Cross Validation_第2张图片

你可能感兴趣的:(K-fold Cross Validation)