感觉这玩意儿挺好玩的,顺便填一下以前留下的坑。

有些内容是抄袭的以前的文章,有些是自己瞎编的。

warning:博主并不知道什么叫深度学习/机器学习/AI,只是一个数学爱好者/oier

独立

独立:对于事件$A$和$B$,如果$P(AB)$=$P(A)P(B)$,那么称$A$和$B$是独立的。

所谓独立,最直观的理解即两事件的结果不会相互影响。

条件概率

如果$P(B)>0$,那么$A$在$B$下的条件概率为

特别的,如果$A$与$B$独立,那么$P(A | B) = P(A)$

同时移项之后我们也会得到一个显然的公式:$P(AB) = P(A |B) P(B)$,那么同时$P(AB) = P(B | A) P(A)$

关于条件概率一种不错的理解方式(引自这里)

条件概率$P(A | B) = \frac{P(AB)}{P(B)}$就是紫色部分的面积占右边整个圆圈的比例

贝叶斯公式

对于事件$A$和$B$,如果$P(A)>0$且$P(B)>0$,那么

这个公式的证明是显然的,我们直接把推导的第二个公式带入条件概率公式即可

观察一下这个公式,我们实际上有四个未知量(左$1$右$3$),而在题目中往往会告诉我们$P(AB)$或$P(B | A)P(A)$,此时我们还需要求解$P(B)$

但是$P(B)$的决定因素可能不止与一个事件有关(这里可能有些抽象,等下会有例子。)

这里我们会用到全概率公式

全概率公式

如果样本空间可以被划分为两两互斥的若干部分$A_1,\ldots,A_k$,那么

举个例子,样本空间被划分成了$A$和$A’$,此时我们可以用全概率公式来计算$B$事件发生的概率

$P(B) = P(B | A) P(A) + P(B | A’) P(A’)$

这个公式可以用来处理$P(B)$不好直接计算的情况

现在回过头来,我们把全概率公式回带到贝叶斯公式中,我们就得到了一种船新的表示形式

如果我们得到了样本空间的一个划分$A_1,\ldots,A_k$,结合全概率公式,对于任意$1\leq i\leq k$有

下面来看两道水题

例题

垃圾邮件识别

(题目是我自己xjb起的)

Descripiton

一个用户所有邮件分为两类:$A_1$代表垃圾邮件, $A_2$代表非垃圾邮件

根据经验,$P(A_1) = 0.7$, $P(A_2) = 0.3$。

令$B$表示邮件包含“免费”这一关键词,由历史邮件得知, $P(B|A_1) = 0.9$,

$P(B|A_2) = 0.01$(注意:它们之和并不一定等于$1$)。

问若收到一封新邮件,包含了“免费”这一关键字,那么它是垃圾邮件的概率是多少

Solution

题目要求的实际是$P(A_1|B)$

根据条件概率公式

转换为贝叶斯公式

将分式底下$P(B)$这一项用全概率公式展开

然后就可以算了

好恐怖。。

次品识别问题

(也是我自己xjb起的)

Description

例1设某工厂有甲、乙、丙三个车间,生产同一种产品,已知各车间的产量分别占全厂产量的$25 \%, 35 \%, 40 \%$,而且各车间的次品率依次为$5 \%,4 \%,
2 \%$.现从待出厂的产品中检查出一个次品,试判断它是由甲车间生产的概率

Solution

设$P(A_i)$表示是由第$i$个车间生产的概率,$P(B)$表示生产出次品的概率,直接带入公式算即可

$P(A_1 | B) = \frac{P(B | A_1)}{P(B | A_1)P(A_1) + P(B | A_2)P(A_2) + P(B | A_3) P(A_3}$

$P(A_1 | B) = \frac{0.25 0.05}{0.25 0.05 + 0.35 0.04 + 0.4 0.02} \approx 0.36231$

总结

通过以上瞎扯不难看出,贝叶斯公式在一类”逆概率”问题中比较常用,按理说应该是非常常见的概率只是,但是我还真没找到几道正经的OI题qwq

而且本文章中没有出现“先验概率”“后验概率”“似然函数”等字眼,原因是因为博主太菜了根本不知道怎么去解释。。

这篇文章只是从最简单的理论层面列出了几个公式,有兴趣的大佬可以深入学习

参考资料

《浅析信息学竞赛中概率论的基础与应用》——2013年胡渊明国家集训队论文

怎样用非数学语言讲解贝叶斯定理(Bayes’s theorem)?


一只菜鸡