[other]

好的总结博客:

https://www.cnblogs.com/Dr-XLJ/p/5466055.html

最大似然估计与最大后验概率的区别与联系:

https://blog.csdn.net/laobai1015/article/details/78062767

朴素贝叶斯分类器和logistic分类器的区别:

(一个是生成模型,一个是判别模型)

https://blog.csdn.net/cjneo/article/details/45167223


em算法也是属于聚类算法,why?直观理解因为,是含有隐变量的模型,聚类算法中的质心,就是隐变量。

关于聚类算法的直观理解:

小涵涵刚刚出生,她第一次看到一堆苹果和梨,她分不清哪个是哪个,于是大脑开始实行一个“聚类”的过程,把苹果聚到一起,把梨聚到一起。这就是一个无监督学习的过程。

无监督学习:找到数据中的隐变量,即数据中蕴含的“特征”。

马尔可夫过程:t+l时刻系统状态的概率分布只与t时刻的状态有关,与t时刻以前的状态无关。

关于马尔可夫过程的一个梗:https://zhidao.baidu.com/question/267032763594471645.html

隐马尔科夫自学:https://blog.csdn.net/chinaliping/article/details/8954424

我们通常都习惯寻找一个事物在一段时间里的变化规律。在很多领域我们都希望找到这个规律,比如计算机中的指令顺序,句子中的词顺序和语音中的词顺序等等。一个最适用的例子就是天气的预测。


#昨天在会议上,听一个西交同学“关于K means优化‘’的会议报告,他是在选取初始值的部分做了优化,一般是随机选取初值,那篇论文做的优化是,计算样本点的相似度,根据相似度选取初值。

其实算法优化,无非就是将不同的算法进行整合。这就要求,要把常用的算法推导,记在脑子里,这样才能融会贯通。

无参模型:参数无穷多

有参模型:参数有限

最大后验估计:在最大似然估计的基础上,乘以一个先验概率

生成模型:根据标签,来生成样本的分布。例如朴素贝叶斯

你可能感兴趣的:([other])