机器学习面试题

这是整理的一些机器学习的面试题,详细的话可以关注日“百面机器学习”,回复干货领取
机器学习面试题_第1张图片
神经网络中怎么降维?
标准化和归一化有什么区别?
LSTM为啥比RNN在梯度消失上要好?
为啥L1正则先验分布是Laplace分布,L2正则先验分布是Gaussian分布?
为什么归一化能加快梯度下降法求优化速度?
简单说下Adaboost?
SVM和LR区别和联系?
机器学习中的距离和相似度度量方式有哪些?
AUC为啥对正负样本比例不敏感?
Xgboost哪里可做到并行?boosting不是串行吗?
你还知道哪些降维方法?
为什么Drop out有效?
说说DL中的Drop out?
除了BN你还知道哪些归一化方法?
神经网络为啥要BN,怎么做?
batch的大小对训练的影响?
KNN的实现方式有哪些?
如何处理类别不均衡问题?
你知道哪些损失函数?
PCA和SVD的联系和区别?
梯度法和牛顿法的区别?
机器学习有哪些优化方法?
Bootstrap原理以及抽样到的概率是啥?
LR如何并行化?
树模型特征重要性怎么看?
随机森林需要交叉验证吗?
当机器学习性能不是很好时,你会如何优化?
说说为什么svm中的某核能映射到无穷维?
说说决策树剪枝算法?
HMM和CRF区别?
深度学习中防止过拟合的方法?
逻辑回归你说说能否用来做非线性分类?
为啥集成学习方法通常情况下效果就是好呢?
随机森林的泛化能力你给说说?
说说生成模型和判别模型?
Adaboost为啥不容易过拟合?
你说说为什么SVM泛化能力好呢?
你说说你都知道哪些激活函数?
机器学习模型的评价指标?
CNN为什么用1*1的卷积核?
KNN中的K怎么选择?
LR和SVM的联系区别?
机器学习中一些模型为什么要对数据归一化?
聚类算法中的距离度量有哪些?
Xgboost和GBDT的区别?
分类问题中如何解决正负样本不平衡问题?
K-means聚类算法中K值如何选择?
请描述极大似然估计MLE和最大后验估计MAP之间的区别?
如果训练样本数量少于特征数量,怎么办?
L1和L2正则的区别,如何选择L1和L2正则?L1在0处不可导,怎么处理?
用 EM 算法推导解释 Kmeans可以吗?
为什么LR要使用sigmod函数?
有监督学习和无监督学习的区别?

你可能感兴趣的:(机器学习,深度学习,算法题)