机器学习面试题解(6-10)

6、HMM的三个基本问题
先放上我完整理论的一些博客
https://blog.csdn.net/Ding_xiaofei/article/details/81629479
前一段时间刚刚复习过,但还是有一个想不起来了,在面试官的提醒下才答出来的。

  • 概率计算问题,已知HMM模型参数,和观测值,计算观测值出现的概率
  • 学习问题,已知观测序列,计算HMM的模型参数
  • 预测问题,解码问题,我们平时用的最多的,已知观测序列和HMM模型的参数,我们要求的是在给定观测序列的条件下求解隐状态

7、第三个问题的一般使用什么算法解决
维特比算法,说说它的思路,再聊一聊它的时间复杂度
时间复杂度是N^2*T,T代表序列长度
参考一下这个博客,顺便也提到了beam search算法
8、简单描述一下HMM的两个假设(这个问题我答的也不行,就记得马尔科夫假设了)
齐次马尔科夫假设,这个主要就是隐状态只和前面一个状态有关系;
观测独立假设,这个就是观测状态只和它的隐藏状态相关。
机器学习面试题解(6-10)_第1张图片

9、贝叶斯全概率公式(这问题搞不出来也真心尴尬)
所以我决定还是写一篇关于朴素贝叶斯的博客,先空一下,列出一些要点

贝叶斯主要学习(输入、输出)的联合概率,然后使用贝叶斯定理求出后验概率最大的y
机器学习面试题解(6-10)_第2张图片

10、解决数据不平衡的一些问题(多次问到数据扩展的问题)
这个问了好几次,我也是比较尴尬,面试官好像对我扩展数据特别感兴趣。
放上之前我之前在简书的文章作为参考
https://www.jianshu.com/p/71eea3555dbf

你可能感兴趣的:(机器学习)