算法面试题

1. 算法模型

  1. kmeans 算法介绍,K值怎么确定以及改进算法

  2. 树模型
    1. bagging 与boosting 的区别
    2. GBDT原理及与RF的区别Random Forest
    3. GBDT与LR的区别,并说说什么情景下GBDT不如LR
    4. Xgboost与GBDT比较,特征并行化怎么做
    5. XGBoost及LightGBM
    6. 选择决策树做基分类器的原因?
    7.CART树的原理,和ID3以及C4.5有什么区别,回归树与分类树有什么区别。

  3. LSTM与GRU介绍及优化点。

  4. 反向传播的公式推导(及伪代码实现)

  5. Word2Vec中两种方法以及负采样和层次softmax如何优化的。

  6. 常用的损失函数以及对应公式并说明它们的使用情况和优缺点,以及LR中为何不能使用平方损失

  7. LR与线性回归的区别
    i. 损失函数:线性回归使用平方损失函数,LR则用似然函数;
    ii. LR是分类算法,线性回归是回归算法

  8. 生成模型与判别模型

  9. LR为什么用极大似然估计,损失函数为什么是log损失函数(交叉熵)

  10. LR 为什么使用sigmoid函数

  11. 为什么平方损失函数不适用分类问题

  12. 聚类算法 k-means 与 gmm 的差异与用途?

  13. 贝叶斯网络的原理

  14. 局部敏感哈希原理

2. 模型优化

  1. ABtest 如何实现流量分流:样本的独立性和采样方式的无偏性。

  2. 优化器 鞍点

  3. 激活函数:使用激活函数的目的就是为了向网络中加入非线性因素;加强网络的表达能力,解决线性模型无法解决的问题。

  4. RNN容易产生梯度消失怎么解决,与LSTM的区别

  5. 过拟合和欠拟合,为什么正则化可以防止过拟合呢

  6. 反向传播的作用、目的、本质
    梯度下降法中需要利用损失函数对所有的参数的梯度来寻找局部最小值点,而反向传播算法就是用于计算该梯度的具体方法,其本质是利用链式法则对每个参数求偏导。

  7. 梯度消失和梯度爆炸,以及有哪些解决方法

  8. 相似度计算有哪些。

  9. 推荐系统的评估方法

  10. 推荐系统中的多路召回,如何确定每一路的数量和总召回数量?

  11. L1和L2正则化

  12. batchNormalization的作用 以及使用过程

  13. 推荐系统中Precession和recall怎么计算
    推荐列表集合计算准确率,用户真实观看列表集合计算召回率

  14. AUC与GAUC 以及 AUC计算公式和GAUC的计算公式

  15. 模型评估

  16. AUC和Gauc解析

  17. 交叉熵函数与最大似然函数的关系和区别

  18. 如何理解推荐系统离线和线上auc和线上点击率不一致的问题?

  19. 时间复杂度O(1)的离散采样方法

  20. MapReduce 解析1 解析2

  21. 机器学习之特征选择和特征抽取(降维)

  22. 在你的项目里你如何提高推荐的效果,怎么去评判推荐是否有效?

  23. 假设你做了一个机器学习模型上线了。每天业务部门产生很多数据,然后你的算法把这些数据进行收集,并制作成特征,然后通过机器学习算法进行预测。但是最近一个月你突然发现你的模型效果变差了很多。请写出你计划从哪些方面,运用何种数据分析或其他办法进行诊断。

  24. 用xgboost模型对特征重要性进行排序

  25. histogram算法与 pre-sorted算法对比

  26. 2.5亿个整数找不重复的整数,内存无法一下存下这2.5亿个数,怎么做。

  27. softmax 与 二分类 比有什么特点

  28. 进程线程的区别?进程和线程相比有什么好处?

  29. 如何构建user和item的特征?

  30. 推荐系统中如何做 User Embedding?

  31. 如何构建一个分布式机器学习框架?

  32. 说一下做一个推荐系统是如何从召回,粗排,精排最终推荐的?每一个环节需要注意哪些问题?

  33. 如何构建用户侧特征,如何理解静态和动态特征?

  34. 如何理解双塔模型中cosine similarity的计算?如何理解粗排和精排的不同需求?

  35. 当mapreduce任务中有一个reducer执行特别慢,该如何处理?

  36. 业务中,召回和粗排分别负责哪些任务?如何从海量item中一步一步选出推荐的item?

  37. 图的稀疏性问题
    一个图中,顶点数 n 边数 m
    当n^2>>m 时,我们称之为稀疏。
    当m相对较大时,我们称之为稠密

  38. word2vec对each word使用两个embedding的原因

  39. word2vec的几点疑惑

  40. Node2Vec得到embedding后计算出的距离不符合逻辑,关于推荐系统冷启动的问题

  41. 关于在线学习Online Learning的几个问题,深度模型排序效果差于按热度排序,有偏特征(连续型数据非正态分布->左偏or右偏)什么时候需要转正态分布?

  42. W2V经过霍夫曼或者负采样之后,模型与原模型相比,是等价的还是相似的?

  43. Word2Vec中为什么使用负采样?,负采样每次让一个训练样本仅仅更新一部分的权重,这样就好降低梯度下降过程中的计算量。

  44. word2vec的损失函数

  45. 如何解决深度推荐系统中的Embedding冷启动问题?

  46. 推荐系统打压保送重排策略,不仅要知道模型能做什么,更要知道它不能什么。

  47. 召回粗排精排-级联漏斗

  48. 推荐系统相关的文章讲解

  49. 推荐模型中正负样本怎么选择,特别是负样本的选择?

  50. 推荐系统特征工程中的几个高级技巧

  51. 推荐系统中的特征工程

  52. Focal Loss与GHM——解决样本不平衡利器

  53. 工业界推荐系统中有哪些召回策略?

  54. 推荐中的召回算法

  55. 推荐系统传统召回是怎么实现热门item的打压?

  56. 推荐系统中的attention机制

  57. 超长用户行为序列建模

3. 项目理解

  1. 多目标推荐场景下的深度学习实践
  2. 信息流内容理解
  3. 推荐系统中模型训练及使用流程的标准化
  4. 腾讯FAT:可以感知未来的推荐框架
  5. 阿里粗排技术体系与最新进展
  6. NN训练训练加速
  7. DIN模型

你可能感兴趣的:(面试,算法)