集成学习、Bagging集成原理、随机森林构造过程、随机森林api与案例、boosting集成原理、梯度提升决策树(GBDT)、XGBoost与泰勒展开式
一、集成学习集成学习:通过建立几个模型来解决单一预测问题,工作原理是生成多个分类器/模型,各自独立地学习和作出预测。这些预测最后结合成组合预测,因此优于任何一个单分类的做出预测机器学习的两个核心任务集成学习中boosting和Bagging只要单分类器的表现不太差,集成学习的结果总是要好于单分类器的二、Bagging集成原理bagging集成优点:Bagging+决策树/线性回归/逻辑回归/深度学