啦啦啦啦

标准化归一化的目的:让各个特征的重要性一致,减少各个特征取值范围不同造成的影响。

集成学习:

* Bagging:将训练集随机采样成若干子训练集,产生若干基模型

>基模型:强模型(低偏差高方差)、训练目标:关注方差,专注于增强模型的泛化能力。

* Boosting:不断改变样本权重构建若干训练集,产生若干基模型

>基模型:弱模型(高偏差低方差)、训练目标:关注偏差

* Stacking:第一层(将训练好的基模型对训练集和测试集进行预测,产生新的数据集)

                    第二层(基于新的数据集,再次训练模型产生最终的预测结果)

>基模型:强模型(低偏差高方差)


模型的偏差:训练出来的模型在训练集上的准确度。

模型的方差:模型泛化能力的大小(源头:数据抽样的随机性带来了模型的随机性)

你可能感兴趣的:(啦啦啦啦)