2019年4月6日训练日记

期望dp学习资料:

https://blog.sengxian.com/algorithms/probability-and-expected-value-dynamic-programming(强烈推荐)

https://blog.csdn.net/weixin_42484877/article/details/86762341

总结:

期望 DP 一般来说有它固定的模式:

一种模式是直接 DP,定义状态为到终点期望,根据全期望公式等,采用逆序计算得到答案。

一种模式是利用期望的线性性质,对贡献分别计算,这种模式一般要求我们求出每种代价的期望使用次数,而每种代价往往体现在 DP 的转移之中。如果状态过于巨大,那么就得考虑分离随机变量了。

本总结只是解释了概率与期望 DP 的冰山一角,它可以变化多端,但那些实际上并不只属于概率与期望 DP,真正核心的内容,还是逃不出我们几种方法。

个人感悟:

期望dp通常还是通过逆推计算答案。关键就是计算出每种可能的情况及其概率。

常常结合算法知识点综合使用(毕竟求期望是一种数学方法)。

具体思路的构造到代码的完成还需要在题目的练习中慢慢体会。

你可能感兴趣的:(训练日记,期望dp)