1.必然现象和随机现象的概念。
2.随机试验的特征,记为E(experiment):
3.随机试验每一个可能产生的结果为随机事件,简称为事件。随机试验每一个可能产生的基本事件集合为样本空间。
4.基本事件、复合事件的概念。(结合离散数学中的来理解)
5.随机事件之间的关系:
tips:互逆一定互斥,互斥不一定互逆
1.概率用来刻画事件出现可能性。
2.古典概型特征:
3.如果一个古典概型E包含n个基本事件,事件A包含k个基本事件,则:
P ( A ) = k n = 事 件 包 含 的 基 本 事 件 数 目 实 验 的 基 本 事 件 总 数 P(A)=\frac{k}{n}=\frac{事件包含的基本事件数目}{实验的基本事件总数} P(A)=nk=实验的基本事件总数事件包含的基本事件数目
4.注意放回和不放回的区别。
5.题目基本事件发生概率给出,将其转换为一个E含有多少个基本事件。
6.解决概率问题就是分析事件发生的步骤。
7.概率的统计定义:
在n次重复实验中,事件A出现次数为k,为事件A的频率,那么:
P ( A ) = k n = 事 件 发 生 频 率 重 复 实 验 次 数 P(A)=\frac{k}{n}=\frac{事件发生频率}{重复实验次数} P(A)=nk=重复实验次数事件发生频率
8.频率的稳定性:当n足够大时,k会稳定在一个数据的附近。
9.统计概率的性质2(P14):
10.几何概率定义:事件几何测度/实验几何测度
11.几何概率特别注意:
1.概率的公理化定义:样本空间的幂集——子集集合作为定义域,每个子集对应一个事件,每个事件的概率构成的集合作为值域,这样的单射函数P(*)有如下性质:
2.这部分多用集合去考虑。
3.加法定理:包含排斥或定理衍生:
P ( ∪ i = 1 n A i ) = ( − 1 ) 1 − 1 ∑ i = 1 n P ( A i ) + ( − 1 ) 2 − 1 ∑ i = 1 n ∑ j = i n P ( A i A j ) + . . . . + ( − 1 ) m − 1 ∑ i 1 = 1 n . . . ∑ i m = i m − 1 n P ( A i 1 . . . A i m ) P(\cup_{i=1}^n A_i)=(-1)^{1-1}\sum_{i=1}^{n}P(A_i)+\\ (-1)^{2-1}\sum_{i=1}^n\sum_{j=i}^nP(A_iA_j)\\ +....+ \\(-1)^{m-1}\sum_{i_1=1}^{n}...\sum_{i_m=i_{m-1}}^{n}P(A_{i_1}...A_{i_m}) P(∪i=1nAi)=(−1)1−1i=1∑nP(Ai)+(−1)2−1i=1∑nj=i∑nP(AiAj)+....+(−1)m−1i1=1∑n...im=im−1∑nP(Ai1...Aim)
1.条件概率定义:注意条件在后,结果在前。
2.乘法公式:就是通过条件概率求交集概率的。
3.两个重要公式:
P ( A 1 A 2 A 3 ) = P ( A 1 ) P ( A 2 ∣ A 1 ) P ( A 3 ∣ A 1 A 2 ) ( 传 递 性 ) P ( ¬ B ∣ A ) = 1 − P ( B ∣ ¬ A ) ( 条 件 概 率 取 反 公 式 ) P(A_1A_2A_3)=P(A_1)P(A_2|A_1)P(A_3|A_1A_2)(传递性)\\ P(\neg B|A)=1-P(B|\neg A)(条件概率取反公式) P(A1A2A3)=P(A1)P(A2∣A1)P(A3∣A1A2)(传递性)P(¬B∣A)=1−P(B∣¬A)(条件概率取反公式)
1.剖分的概念——两两互不相容的部分
2.全概率公式及其应用:
全概率公式就是对于每一个样本空间的剖分,都有一个共同的结果,那么要求整体的这个结果,就可以用全概率公式。
或者这样理解:要求一个样本空间下的某个事件A,但是这个样本空间有多个部分都会对这个事件A产生影响或者是说对这个事件A的概率产生贡献,那么这个情况下就可以用全概率公式。
P ( A ) = ∑ i = 1 n P ( B i ) P ( A ∣ B i ) ( 样 本 空 间 下 有 n 个 剖 分 ) P(A)=\sum_{i=1}^{n}P(B_i)P(A|B_i)(样本空间下有n个剖分) P(A)=i=1∑nP(Bi)P(A∣Bi)(样本空间下有n个剖分)
eg:我从4个同学中等可能抽到一个找到会打篮球的人的概率,4个同学各自会打篮球的概率为…——首先就有4个剖分并且每个剖分概率为0.25,对于每一个同学都有个自己的会打篮球的概率,对整体事件都有贡献。
3.贝叶斯公式
贝叶斯公式求的是已知了结果,我要求取条件,全概率公式与之相反:已知了条件,要求取结果。
P ( B i ∣ A ) = P ( A B i ) P ( A ) = P ( B i ) ∣ P ( A ∣ B i ) ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(B_i|A)=\frac{P(AB_i)}{P(A)}=\frac{P(B_i)|P(A|B_i)}{\sum_{i=1}^{n}P(B_i)P(A|B_i)} P(Bi∣A)=P(A)P(ABi)=∑i=1nP(Bi)P(A∣Bi)P(Bi)∣P(A∣Bi)
通俗点来说,你用深度学习思想去看就是:
有n个样本(剖分)会对你的预测结果(label)产生影响,那么现在对于贝叶斯——已知了每个样本的结果label,要求的这个样本所属的类别概率。
eg:
一个病人可能患有3种疾病,每种疾病的概率不一样,对于每一个疾病,患上后吃了同一种药的恢复概率是不同的,现在一个病人吃了该病恢复了,求这个病人最有可能患上哪种病(属于哪个病类别的可能性最大)。
1.如何判断两个事件独立:
P ( B ∣ A ) = P ( B ) ( A 的 出 现 对 B 没 有 影 响 ) → P ( A B ) P ( A ) = P ( B ) → P ( A B ) = P ( A ) P ( B ) P(B|A)=P(B)(A的出现对B没有影响)\rightarrow \frac{P(AB)}{P(A)}=P(B) \\\rightarrow P(AB)=P(A)P(B) P(B∣A)=P(B)(A的出现对B没有影响)→P(A)P(AB)=P(B)→P(AB)=P(A)P(B)
2.ABC三个事件,两两独立也不能保证他们互相独立。
3.多个事件相互独立的充要条件:
P ( A 1 A 2 A 3 . . . A n ) = ∑ i = 1 n P ( A i ) P(A_1A_2A_3...A_n)=\sum_{i=1}^{n}P(A_i) P(A1A2A3...An)=i=1∑nP(Ai)
4.A\B\C相互独立,那么:
A ∪ B 和 C 相 互 独 立 A − B 和 C 相 互 独 立 A\cup B和C相互独立\\ A-B和C相互独立 A∪B和C相互独立A−B和C相互独立
5.n重伯努利实验:
p ( k ) = C n k p k ( 1 − p ) n − k p(k)=C_{n}^{k}p^k(1-p)^{n-k} p(k)=Cnkpk(1−p)n−k