机器学习1——概率论

学习数据挖掘的时候看到需要有机器学习的基础,然后就在Cousera上找到了Andrew Ng的Machine Learning看了一下,讲的深入浅出,对新手大有裨益,可是回过头来当回顾他讲的回归分析法以及梯度下降法时发现大学学习的很多公式都忘了,于是再去找概率论、线性代数,以及统计的相关书籍来看。接下来便是关于概率论及随机过程学习中的一点总结,希望能够对知识点进行一下梳理。

(一)随机事件的概率

   条件概率

     

全概率公式


贝叶斯公式


(二)离散型随机变量及其分布

常用的分布有四种,两点分布,二项分布,泊松分布以及超几何分布,如下。

分布 分布律 数学期望 方差
两点分布
 (k=0,1)
p p(1-p)
二项分布 np np(1-p)
泊松分布
超几何分布 nN/(M+N) nMN(M+N-n)
____________
(M+N)2(M+N-1)

(三)连续性随机变量及其分布

分布 分布律或概率密度 数学期望 方差
均匀分布 (a+b)/2 (b-a)2/12
指数分布
正态分布
威布尔分布

(四)二维随机变量

之前的各种分布都是关于单变量的分布,然而实际情况中随机事件可能包含多个观察值,例如人的身体健康状况就包括体温、血压、脉搏等,二维随机变量则是由任意实数x,y组成的,其本质和单变量随机事件一样。不过在二维随机变量中,我们多用分布函数表示其分布特征。

(五)统计量及其分布

(六)回归分析

具体的公式太复杂就不一一列出来了,总的来说,想学习机器学习首先得打好数学基础,概率论与数理统计,线性代数都得弄明白。

之后矩阵看完了再更新机器学习2,大学没学好只有慢慢填坑了,没有什么新的见解,只是希望记录下自己学习的轨迹,有意见和想法的同学尽请相互交流、学习。

你可能感兴趣的:(机器学习1——概率论)