什么都不会的概率Dp。。。把一些好的资料收集起来慢慢看把。。。orz这些大神,蔑视我这zz垃圾
转自:http://blog.csdn.net/zy691357966/article/details/46776199
在各类信息学竞赛中(尤其是ACM竞赛中),经常出现一些与概率和期望有关的题目。这类题目需要较高的数学水平和一定的算法技巧,必须经过仔细分析,选择合适的数学模型和算法才能顺利的解决问题。本文就对这类题目的一些常见方法进行了研究。
这里写的数学基础是有关概率和期望的一点简单的计算法则,虽然我们都很熟悉,但是有时也可能会忘记使用,所以在这里列出来,也作为以后内容的基础。
概率的运算
Ø 两个互斥事件,发生任一个的概率等于两个事件的概率和
Ø 对于不相关的事件或者分步进行的事件,可以使用乘法原则。
Ø 对于一般情况p(A+B)=p(A)+p(B)-p(AB)
期望的运算
Ø E(φ)= ΣφiPi,这是期望的定义,其中φi是一个取值,而Pi是取这个值的概率
Ø 期望有“线性”,也就是说对于不相关的两个随机变量φ和ξ,E(φ±ξ)=E(φ)±E(ξ);E(φξ)=E(φ)E(ξ);E(φ/ξ)=E(φ)/E(ξ)
Ø 在某些情况下,期望可以表示成一个无穷的等比数列,然后利用极限的思想来求。
当然,这些只是最基础的知识,要解决好概率和期望的问题,还需要掌握一些组合数学的知识。
这种方法说起来很简单,就是推导出一个数学公式,然后通过程序来计算这个式子的值。这样的题目在与概率和期望有关的题目中比例不小,但是由于它们大都需要一定的组合数学基础,而一旦推导出公式,对算法的要求并不太高,而时间复杂度往往也比较低,所以这类问题不是本文的重点。有关内容可以在任何一本组合数学书中学到。
例一 百事世界杯之旅[1]
“……在2003年6月之前购买的百事任何饮料的瓶盖上都会有一个百事球星的名字。只要凑齐所有百事球星的名字,就可以参加百事世界杯之旅的抽奖活动,获取球星背包、随身听,更可以赴日韩观看世界杯。还不赶快行动!……”
你关上电视,心想:假设有n个不同球星的名字,每个名字出现的概率相同,平均需要买几瓶饮料才能凑齐所有的名字呢?
输入输出要求
输入一个数字n,2≤n≤33,表示不同球星名字的个数。
输出凑齐所有的名字平均需要购买的饮料瓶数。如果是一个整数则直接输出。否则就用下面样例中的格式分别输出整数部分和小数部分。分数必须是不可约的。
样例输入和输出
输入 |
输出 |
2 |
3 |
5 |
5 11——— 12 |
17 |
340463 58 —————– 720720 |
[1] 题目来源 SHTSC2002 Day 1 Prob 2
分析 这是一道比较简单的概率和期望问题。只要确定好计算方法,就可以很容易的得到公式。如果单独考虑每一名球星,那么就中了命题人的圈套。因为考虑单独的一个球星的时候所买的“没用”的饮料在考虑其他球星的时候可能会变成有用的。正确的思路是,假设现在已经有k个球星的名字,那么要使球星的名字达到k+1个平均需要买多少瓶饮料?这是很容易计算的,是n/n-k。所以我们从没有球星的名字开始,直到把所有的球星名字都凑齐,平均需要的饮料数(E)就可以计算出来:
ANS=n(1/1+1/2+1/3+….1/n)
由于题目的数据规模并不大,所以可以直接使用PASCAL的Comp或Int64(C/C++的long long)进行计算。而题目要求得到即约分数,只要在计算的时候使用分数并注意约分就可以了。
我的分析:当有k个人的时候,抽到下一个的概率是n-k/n 所以平均需要n/n-k瓶才能买到下一个
所以ANS=n(1/1+1/2+1/3+….1/n)
这里可以用分数直接计算
如果n很多 需要关于n的近似公式 0.57721566490153286060651209 + ln(n)
动态规划是一种应用范围很广的方法,由于概率和期望具有前面提到过的一些性质(特别是期望的定义以及期望的“线性”性质),使我们可以在概率和期望之间建立一定的递推关系,这样就可以通过动态规划来解决一些概率问题。
与其他方面的动态规划一样,合理的选择状态以及高效的状态转移方程是应用这种方法的关键,而状态的选择在这类问题中尤为重要。选择合适的状态不仅可以提高效率,而且可以保证动态规划所必须的无后效性。而动态规划的各种优化方法也可以应用。
概率和期望的最值问题也往往使用动态规划的方法来解决。
例二 多米诺骨牌[1]
你试图把一些多米诺骨牌排成直线,然后推倒它们。但是如果你在放骨牌的时候不小心把刚放的骨牌碰倒了,它就会把相临的一串骨牌全都碰倒,而你的工作也被部分的破坏了。
比如你已经把骨牌摆成了DD__DxDDD_D的形状,而想要在x这个位置再放一块骨牌。它可能会把左边的一块骨牌或右边的三块骨牌碰倒,而你将不得不重新摆放这些骨牌。
这种失误是无法避免的,但是你可以应用一种特殊的放骨牌方法来使骨牌更多的向一个方向
分析
首先应该明确怎样找到最佳的摆放策略。我们可以考虑在位置i放最后一块骨牌。显然,i前面的i-1块骨牌和i后面的n-i块骨牌是互不影响的。所以我们假设摆放i-1块骨牌需要的次数平均是(或说期望是)E1,摆放n-i块骨牌需要的次数平均是E2。那么我们摆放了这两段之后,就要把最后一块放上。这时如果把左边的碰倒了,就只好重新摆放。右边的也是同样的道理。所以需要摆放的平均值(E)是:
E = E1 + E2 +
这个式子的推导并不困难,方法之一就是应用方程的思想(参见后面介绍的概率—期望系统)。
既然得到了这个式子,我们就可以通过动态规划来得到最优的摆放方案。设Ei是摆放i块骨牌所需要的最少期望次数,那么状态转移方程是:
Ei = min{Ek + Ei-1-k + } (0≤k≤i-1)
这样就得到了一个O(n2)的算法。根据题目中的数据规模,最大的运算量是100*10002 = 108,虽然可以忍受,但是还是比较慢的,如果数据稍大一点就容易超时。
这就需要我们对动态规划进行优化。
这是一个1D/1D的动态规划,我们自然希望得到O(n)的算法,而这种优化一般都是通过动态规划的方程性质得到的。
观察动态规划的方程,我们可以发现,当k从0变化到i-1时第一项是不断增大的,第二项是不断减小的,第三项则是一个常数。因此整个函数一定是单峰的,这样就可以通过二分的方法进行优化,复杂度已经降到了O(nlogn)。而事实上,E这个数列不但是单增的,而且是凹的(如果PlPr=0就不凹也不凸,但是这不影响这里的讨论),通过这个性质我们还可以证明决策使用的k一定是不减的(证明很简单,略去)。这样通过记录上一次决策使用的k,就得到了一个(均摊的)O(n)的算法。
[1] 题目来源 UVA 10529
动态规划要求问题无后效性,而如果问题有不可避免的后效性,动态规划就无能为力了。这时我们可以采用迭代的方法来进行计算。
当然,迭代也不是万能的,它要求问题有收敛性而且收敛的速度要足够快,而且要求的结果精度不要太高。对于同一规模的不同的输入,迭代法的效率可能会有很大的改变,所以这种方法有可能因为遇到比较坏的数据而失效。
此外,迭代法也未必是要解决有后效性的问题,只要问题有收敛性,迭代都可以起到一定的作用,下面这道例题就没有后效性,但是由于动态规划的时间复杂度过高,所以采用了一种动态规划和迭代混合的方法来解决。
例三 巧克力[1]
2100年,ACM牌巧克力将风靡全球。
“绿的,橘红的,棕色的,红的…”,彩色的糖衣可能是ACM巧克力最吸引人的地方。你一共见过多少种颜色?现在,据说ACM公司从一个24种颜色的调色板中选择颜色来装饰他们的美味巧克力。
有一天,Sandy用一大包有五种颜色的巧克力玩了一个游戏。每次他从包里拿出一粒巧克力并把它放在桌上。如果有桌上有两粒相同颜色的巧克力,他就把他们吃掉。他惊奇的发现大多数时候桌上都有2到3粒巧克力。
如果ACM巧克力有C(1≤C≤100)种颜色,在拿出了N(1≤N≤1000000)粒巧克力之后在桌上恰有M(1≤M≤1000000)粒的概率是多少?
分析
如果N不是那么大的话,我们是很容易用动态规划来解决此题,状态转移方程就是
Pi+1,k=Pi,k-1*(C-k-1)/C+Pi,k+1*(k+1)/C
其中Pi,k表示拿出了i粒巧克力后桌上剩余M粒的概率(当然还要考虑一些边界情况)。但是现在N可以达到1000000,如果直接动态规划肯定是要超时的。
这个题的标准算法是使用生成函数。也就是说把“桌上有m块巧克力”转化成“有m种巧克力取了奇数块,其余的都取偶数块的取法”。所以就可以列出生成函数是,所以总的取法数就是xn的系数乘以n!和C(c,m),而概率就是总的取法数除以cn,然后通过进一步的代数分析来化简解决。这种方法当然是很优秀的,复杂度是O(c2)。但是由于这道题的精度要求很低,迭代的方法也是可以达到目的的,而且复杂度也接近O(c2)。
这道题里不会出现极大或极小的概率,一般来说这种情况下的收敛是比较快的。我们可以不断的计算P的值,当它的变化不足以影响结果时就停止计算。当然这道题里的收敛是分奇偶的(显然桌上剩余的巧克力数和拿出的巧克力数是同奇偶的),所以不能比较Pi和Pi-1,而要比较Pi和Pi-2,只要看到Pi和Pi-2差距小于一个定值(比如1e-5),而且i和N同奇偶,就可以停止动态规划,因为此时继续规划下去所产生的不同已经不可能影响到要输出的结果。经过实验发现,最大的数据也只在几百次迭代中就稳定了,这样就将效率大大提高,满足了题目的要求。
[1] 题目来源ZJU OnlineJudge 1363
这个是我自创的,或许是由于不是很难吧,这个东西我在资料中没有见到过。其实这就是方程的思想在概率和期望问题中的一个应用。
概率—期望系统的定义
概率—期望系统是一个带权的有向图。这个图中的点代表一个事件,而如果点A与点B之间有一条权为p的边,就表示A发生后,B紧接着发生的概率是p。初始的时候,有一个点(叫做初始点)代表的事件发生了,其他事件根据概率依次发生,每次只发生一个。求其他各个事件发生次数的期望。记时间A的发生次数期望为EA,A到B的边权为PAB
一些限制
Ø 对任意的AB,PAB≤1
Ø 对于任意点A,,且对于系统中的所有点,至少有一个点使等号不成立。如果等号都成立的话这些事件将无穷无尽的发生下去,而概率—期望系统则变得没有意义(此时期望或者是无穷大,或者是0)。
Ø 不能有指向初始点的边,这是因为求解时我们把初始顶点的概率设为1。但是如果真的有这样的边,可以添加一个假点作为初始点,这个假点到真正的初始点有一条概率为1的边。
概率—期望系统的求解
我们首先来看一种最简单的概率—期望系统:有向无环图的概率—期望系统。这种系统是很简单的,因为它没有后效性,所以可以通过动态规划的方法在O(E)的时间内解决。许多使用动态规划解决的概率—期望问题都是基于这类系统的。比如ZJU1022 Parallel Expectation就是这样的。
但是在有些问题中(比如下面的例4),我们需要解决更一般的概率—期望系统。这时图中含有圈,因而造成了后效性。我们当然可以用迭代法,而如果设第i次迭代时A的期望用Ei,A来表示,迭代的方程就是
通过若干次的迭代,就可以达到我们需要的精度。但是这个方法的效率是不稳定的,考虑这样一个例子:A是起始点,PAB=1,PBC=1,PCB=0.99,这个例子的解是EA=1,EB=100, EC=100,但是如果用迭代的话需要很多次才能达到这个结果。而如果PCB=0.9999,那么迭代法的速度就更加缓慢。
如何避免这种情况的出现呢?我们当然不能限制数据,而应该寻找更稳定的方法。考虑刚才迭代的过程,我们发现,在迭代的终点,近似的有
,这是一个方程,而这个方程的解其实就是我们所要求的解。我们只要把这个方程解出来,就可以得到精确的结果,而刚才说的迭代过程,实际上就是这个方程的求解过程(线性方程组的一种解法——Jacobi法就是这样做的)。而求线性方程组的解,我们更常用的稳定算法是高斯消元法,完全可以在这里使用。这样就得到了一种稳定而精确的解法:
首先根据概率—期望系统建立方程组,然后用高斯消元法去解,得到的结果就是我们要求的期望。这种算法的时间复杂度是O(n3)。
当然这个复杂度是不很理想的,但是对于解方程组,我们没有更简单而高效的方法,所以这个算法还是比较可取的。而迭代法也不能忽视,在概率不会出现极大或极小,而且边又不多的时候,迭代法的效率往往会高于高斯消元。
此外,即使概率—期望系统中有环,也并不一定就不能使用动态规划来解决,当环之间满足一个偏序的时候,我们仍然可以使用等比数列求和的方法来进行处理,从而达到更好的复杂度。
例四 简单游戏[1]
所谓简单游戏,相信大家小时候都玩过,就是那种掷出股子子,然后按掷的步数走的游戏。现在有一个n(1≤n≤100)个格子的游戏,一些格子上有指令。指令分成若干种,如下:
Ø 0——空指令
Ø -1——陷阱,到了这里后要掷出六才能继续向前,注意不是向前六步,而是要再掷一次决定步数。
Ø -2——停一次
Ø 其它数字——转移指令,走到数字所代表的格子
走到陷阱中是很难出来的,因此大家都不希望走到陷阱里。玩一次游戏走到陷阱里的平均次数到底是多少呢?这个问题将由你来解决。
输入:第一行n,表示游戏的格数。第二行有n个数,表示每个格子的指令(第一个和最后一个都没有指令)。注意如果某次走到的位置达到或超过最后一个格子,都表示游戏结束。
输出:走到陷阱里的平均次数。保留3位小数,请尽量使用extended类型。
样例:
输入
输出
4
0 -1 2 0
0.400
解释:第一次走到陷阱里,概率为1/3,第二次走到陷阱里,概率为(1/3)(1/6),第三次(1/3)(1/6)2,……
由等比数列的求和公式中令n=无穷,可得概率之和为(1/3)/(1-(1/6))=2/5=0.4
分析
如果按照题目中的那个“解释”的思路走,就不免中了圈套。题目中的转向指令可以造成非常复杂的圈套圈的情况,用求极限的思想很难解决。
有了概率—期望系统,这个问题就并不困难了。我们只要构造一个图就可以。把到达每个格子作为一个事件,每个事件如果没有转向指令就向后面的六个格子各连出一条概率为1/6的边,如果有转向指令就向转向的那个格连一条概率为1的边。的由于题目中没有限制第一个格子不会有转移指令指向,所以我们不能简单的把第一个格子作为起始点,而应该做一个假起点,叫做0点,然后让0到1有一条概率为1的边就可以。例如样例中的游戏对应的图和方程就是:
其中三角形箭头表示概率是1,普通箭头表示概率是1/6。
方程组:
E1 = 1
E2 = E1 + E3
E3 = E1 + E2
解得E2 = 0.4,这就是我们需要的结果。
对于任何一个游戏,我们都可以按这种方法建立一个概率—期望系统,剩下的问题就是应用高斯消元法来解决就可以了。
当然我们不能忘记迭代法。但是容易看出,迭代法在这道题中可能遇到特殊设计的数据(一个典型的数据就是5个转向指令连成一排,这种结构只要重复几次就会造成答案非常大,可以达到105以上),对于这种数据,迭代是无法出解的。因此,本题选择高斯消元是比较好的方法。
本文对有关概率和期望的问题进行了一些研究,介绍了直接计算,动态规划,迭代以及概率—期望系统四种常用方法。在实际解题时,只有具备扎实的数学基础,灵活运用这些方法,才能顺利的解决各种各样的概率问题。
转自:http://blog.csdn.net/auto_ac/article/details/9907881
很早就被概率题和期望题虐得不行了,这次真的不能忍了,怒刷概率dp,学到了很多,都是最基础的,还需日后强化。
下面说一下我个人的总结:
很多概率题总逃不开用dp转移。
期望题总是倒着推过来的,概率是正着推的,多做题就会理解其中的原因
有些期望题要用到有关 概率 或 期望的常见公式或思想
遇到dp转移方程(组)中有环的,多半逃不出高斯消元(手动 和 写代码 两种)
这套题中还有道树上的dp转移,还用dfs对方程迭代解方程, 真是大开眼界了
当然还有与各种算法结合的题,关键还是要学会分析
当公式或计算时有除法时, 特别要注意分母是否为零
以下的题都是很常见的简单题或中等题,简单题尽量自行思考,最好不要看题解。
1、POJ 3744
2、POJ 2096 Collecting Bugs
dp求期望,概率dp入门题。很简单,题解见here
3、ZOJ 3329 One Person Game
此题的递推方程稍微复杂点,需要转化后求解系数。
题意:有三个骰子,分别有k1,k2,k3个面。
每次掷骰子,如果三个面分别为a,b,c则分数置0,否则加上三个骰子的分数之和。
当分数大于n时结束。求游戏的期望步数。初始分数为0
题解见here
4、HDU 4405 Aeroplane chess
这题是2012年网络赛的题目。是很简单的概率dp.转移方程很好想到。
求期望。按照公式从后望前递推就可以得到答案了。
解题报告here
5、HDU 4089 Activation
这题是求概率,但是也有种求期望的感觉,都是要列出公式来,化简,递推出答案。
2011年北京现场赛的题目。再比赛时做出来确实不容易,需要对概率DP很熟悉才能做出来。
解题报告见here
6、HDU 4035 Maze
经典的的概率DP的题目。做了可以体会到dp 求期望的一类的方法。
解题报告见here
7、HDU 3853 LOOPS
比较简单的概率DP了,入门基础题。
注意一个小陷进。
解题报告here
8、POJ 2151 Check the difficulty of problems
此题还不算是概率DP的题目。就是DP题,求概率。
想到转移方程就不难了。
题解见here
9、Codeforces 148D Bag of mice
抓老鼠问题。转移方程要思考下就出来了。
解题报告here
10、POJ 3071 Football
足球赛的淘汰赛问题。问最后胜利的概率最大的球队。
简单概率DP
题解报告见here
11、SGU 495 Kids and Prizes
简单的概率DP。 O(1),推公式就可以出来。
解题报告here
12、ZOJ 3380 Patchouli’s Spell Cards
用Java的大树做的概率DP。有m个位置,每个位置填入1~n中的一个数,求至少有L个数一样的概率。
解题报告见here
13、ZOJ 3640 Help Me Escape
比较简单的概率DP,记忆化搜索很好理解,也很容易写。
解题报告here
14、HDU 4336 Card Collector
求期望,可以状态压缩概率DP求解。也可以用容斥原理直接求。解题报告here
下面介绍的三题是用高斯消元法求解的概率DP
15、ZJUT 1423 地下迷宫
一个N*M的迷宫,除了障碍外等概率走,求起点走到终点步数的期望。先在起点进行bfs,找出所以可以到达的点并编号,然后建立方程组求解。
16、ZJUT 1317 掷飞盘
在一个环上抛掷两个飞盘 ,每个飞盘等概率往左和右走,问两个飞盘走到同一个地方所需要步数的期望。
按照他们的距离表示状态进行概率DP。dp[i]=dp[i-2]/4+dp[i+2]/4+dp[i]/2+1.整理下就出来方程。注意是循环的,要进行处理。
17、HDU 4418 Time travel
在坐标轴上用高斯消元法求解。注意N=1的时候要特判一下。解题报告here