很少训练数据情况下的模型性能对比

一般在数据很少的情况下,我们可以选择Naïve Bayes,或者Random Forest作为训练模型:

朴素贝叶斯


Naïve Bayes是基于概率的,所以它的一个优势就在于只需要少量的训练数据就可以估计出必要的参数(变量的均值活着方差)。由于变量独立假设,只需要估计各个变量的方法,而不需要确定整个协方差矩阵。(因为在这个假设的条件下,参数与参数之间0关联,那么协方差矩阵全为0 => 代表变量之间无相关性)

正因为Naïve Bayes基于概率,而且计算概率不需要很大的样本就可以得到大致的概率。

随机森林


随机森林在某些情况下也可以使用一个相对小的样本所谓训练集,这得益于其Bootstrap采样。这样我们就可以在没有测试集的情况下计算性能。

每一次用Bootstrap采样,都会存在一些为提取出来的数据,我们可以用这些数据进行测试,从而省去了测试集。

你可能感兴趣的:(机器学习)