机器学习基础:贝叶斯定理及其应用示例


贝叶斯定理:
(1) P ( h ∣ D ) = P ( D ∣ h ) P ( h ) P ( D ) { P(h|D)=\frac{P(D|h)P(h)}{P(D)} \tag{1}} P(hD)=P(D)P(Dh)P(h)(1)

全概率公式:
(2) P ( B ) = ∑ k = 1 n P ( B ∣ A i ) P ( A i ) {P(B)=\sum_{k=1}^nP(B|A_i)P(A_i)\tag{2}} P(B)=k=1nP(BAi)P(Ai)(2)


示例

已知某种疾病的发病率为0.008,现有一种试剂可以检验患者是否得病,即在患者确实患病的情况下,检验结果为阳性的概率为98%,在患者确实没患病的情况下,检验结果为阴性的概率为97%。现有一名患者的检验结果为阳性,则该患者的患病概率为多大?

假定事件C为得病,事件+为阳性,事件-为阴性,则有:

  1. P ( C ) = 0.008 P(C)=0.008 P(C)=0.008
  2. P ( C ‾ ) = 1 − P ( C ) = 0.992 P(\overline{C})=1-P(C)=0.992 P(C)=1P(C)=0.992
  3. P ( + ∣ C ) = 0.98 P(+|C)=0.98 P(+C)=0.98
  4. P ( − ∣ C ) = 1 − P ( + ∣ C ) = 0.02 P(-|C)=1-P(+|C)=0.02 P(C)=1P(+C)=0.02
  5. P ( − ∣ C ‾ ) = 0.97 P(-|\overline{C})=0.97 P(C)=0.97
  6. P ( + ∣ C ‾ ) = 1 − P ( − ∣ C ‾ ) = 0.03 P(+|\overline{C})=1-P(-|\overline{C})=0.03 P(+C)=1P(C)=0.03

其中, P ( C ) P(C) P(C)为“先验概率”,即没有做试验之前,所估计的发病率。 P ( C ∣ + ) P(C|+) P(C+)为“后验概率”,即做了试验之后,对发病率的估计。

求检验结果为阳性时,患者的患病概率,就是求后验概率 P ( C ∣ + ) P(C|+) P(C+)

使用全概率公式 P ( + ) P(+) P(+),有
P ( + ) = P ( + ∣ C ) P ( C ) + P ( + ∣ C ‾ ) P ( C ‾ ) = 0.0376 P(+)=P(+|C)P(C)+P(+|\overline{C})P(\overline{C})=0.0376 P(+)=P(+C)P(C)+P(+C)P(C)=0.0376
根据贝叶斯定理,有
P ( C ∣ + ) = P ( + ∣ C ) P ( C ) P ( + ) = 0.98 × 0.008 0.0376 = 0.2085 P(C|+)=\frac{P(+|C)P(C)}{P(+)}=\frac{0.98×0.008}{0.0376}=0.2085 P(C+)=P(+)P(+C)P(C)=0.03760.98×0.008=0.2085
所以,该患者的患病概率为20.85%

因为存在3%误报率,所以会存在“假阳性”问题,即阳性结果并不足以说明病人得病。


参考资料:

  1. 贝叶斯推断及其互联网应用(一):定理简介 - 阮一峰的网络日志
  2. 全概率公式 - 维基百科,自由的百科全书

你可能感兴趣的:(深度学习)