常见机器学习文章大全 - 2021面试准备

常见机器学习文章大全

  • 前言
  • 一、线性回归
  • 二、逻辑回归
  • 三、SVM
  • 四、决策树
  • 五、随机森林
  • 六、提升树
  • 七、GBDT
  • 八、XGBoost
  • 九、KNN
  • 十、K-means
  • 十一、贝叶斯
  • 十二、LDA和PCA
  • 十三、其他


前言

收藏一下各个模型写得比较好的文章,到时候通过这个入口方便查看

一、线性回归

  • 机器学习算法——线性回归(超级详细且通俗)
  • 线性回归相关面试题

二、逻辑回归

  • 逻辑回归 - 理论篇
  • 逻辑回归和神经网络权重初始化为0的问题
  • 逻辑回归(logistics regression)

三、SVM

  • 【ML】支持向量机(SVM)从入门到放弃再到掌握
  • 深入理解SVM—从头到尾详细推导(软硬间隔、KKT条件、核技巧)
  • SVM的常见面试点总结
  • SVM通俗详解
  • 支持向量机通俗导论(理解SVM的三层境界)

四、决策树

  • 决策树(Decision Tree)
  • 决策树梳理
  • 决策树从原理简述到面试详细总结
  • Regression Tree 回归树

五、随机森林

  • 随机森林算法及其实现(Random Forest)

六、提升树

  • 深入理解提升树(Boosting tree)算法

七、GBDT

  • GBDT算法原理以及实例理解
  • 深入理解GBDT回归算法

八、XGBoost

  • 通俗理解kaggle比赛大杀器xgboost
  • 珍藏版 | 20道XGBoost面试题

九、KNN

  • 机器学习面试题之KNN

十、K-means

  • K-Means(聚类)
  • k-means常见面试题

十一、贝叶斯

  • 通俗易懂的贝叶斯定理
  • 朴素贝叶斯分类:原理
  • 隐马尔可夫链
    • 一起看着玩

十二、LDA和PCA

  • 主成分分析(PCA)和线性判别分析(LDA)原理简介
  • PCA和LDA以及之间的区别

十三、其他

  • L1、L2正则化
  • 梯度消失和梯度爆炸
  • 过拟合与欠拟合
  • Loss异常
  • 特征怎么离散化?为什么需要离散化?
  • 常见分布总结-高斯分布、伯努利分布、泊松分布、几何分布、beta分布
  • 方差和偏差的区别
  • 深入理解L0,L1和L2正则化
  • 【通俗易懂】机器学习中 L1 和 L2 正则化的直观解释
  • 交叉熵损失函数原理详解
  • 机器学习面试中常问到的算法问题1----L1正则化与L2正则化的区别以及为什么L1正则化可以产生稀疏矩阵,L2正则化可以防止过拟合**
  • 手推公式带你轻松理解L1/L2正则化
  • 交叉熵代价函数(作用及公式推导)
  • 过拟合和欠拟合原因及其解决方法

你可能感兴趣的:(面试,机器学习,算法)