【RLaI】动态规划求value的算法(Policy Evaluation)

背景

Reinforcement Learning, an Introduction 第二版 4.1 Policy Evaluation (Prediction)中提到两种求value的算法。
当我们已知环境模型时,我们可以根据状态值函数的Bellman方程得到v(s)和v(s')的关系,也就是当前状态下的value和下一状态下value的关系,表达如下:


状态值value的递推求解

对于实际问题,我们通常已知环境信息,已知optimal最优的状态,也就是我们要达到的目标Goal,目的往往是要找到达到optimal policy的最佳路径。如公式所示,在k+1 -> ∞的时候,理论上我们能得到所有可能的状态下的value的收敛值,以及对应的optimal policy。

算法 ( P75 )

实现的方式有两种:

  • 两个数组 v[]old, v[]new
  • 一个数组 v 不断迭代更新(in-place algorithm)


    算法概述

example ( P76 Example 4.1 )

代码对应的example

算法设计

  • 动态规划就是去计算最优策略的一系列算法。
  • 4.1 给出最基础的算法,就是根据环境模型,按照其计算value。实现方式有两种,一种是持有两个数组,另一种是操作一个数组。下面分别实现。
  • 需要定义的:
    • 常量ACTIONS TOP DOWN LEFT RIGHT
    • 三维数组 environment[state][action][1:reward]/[2:statep]/[3:prob]
  • 算法函数输入输出:
    • 输入:环境的信息 environment[][][]
    • 输出: 实现optimal policy所花费的时间、步数、流程
  • inspaceAlgorithm()函数
    操作一个数组value[state] 根据算法更新数组内容
  • noninspaceAlgorithm()函数
    操作两个数组value_old[state] value_new[state] 根据算法更新数组内容

算法实现

noninspaceAlgorithm()

def noninspaceAlgorithm():
    global value_new, value_old
    i = 0
    
    while True:
        smallvalue_ = 0
        i += 1
        value_old = value_new.copy()
        # 注意这个数组要有置空操作
        value_new = np.zeros(16)

        for state in range(1, 15):
            for action in [TOP, DOWN, LEFT, RIGHT]:
                p = environment[(state, action)][0] + discount * value_old[int(environment[(state, action)][1])]
                value_new[state] += environment[(state, action)][2] * p
            smallvalue_ = max(smallvalue_, abs(value_new[state] - value_old[state]))
        if smallvalue_ < smallvalue:
            break
    
    print(value_new.reshape(4, 4))
    print(i, " time steps before converged in noninspaceAlgorithm")

inspaceAlgorithm()

def inspaceAlgorithm():
    global value
    i = 0
    while True:
        i += 1
        #  smallvalue_ = 0 应该在每个时间片循环之初就置为0  因为只是在当前时间片之中比较
        smallvalue_ = 0
        for state in range(1, 15):
            v = 0
            for action in [TOP, DOWN, LEFT, RIGHT]:
                p = environment[(state, action)][0] + discount * value[int(environment[(state, action)][1])]
                v += environment[(state, action)][2] * p
            smallvalue_ = max(smallvalue_, abs(v - value[state]))
            value[state] = v
        if smallvalue_ < smallvalue:
            break
    print(value.reshape(4, 4))
    print(i, " time steps before converged in inspaceAlgorithm")

结果

在精度smallvalue = 0.0000000000001的情况下,执行两个函数直到收敛,输出收敛的结果和达到收敛的步数(time steps),结果如下:


image.png
  1. 可以看出表示状态下value的值最终收敛,而这个值代表的是当前状态下,之后所有可能的路线轨迹以及其对应的value(reward之和)的期望
  2. 收敛速率 in-place算法收敛速度更快。可以看出当精度设置为0.0000000000001时,收敛时经过的步数 ( time steps ) 分别为非in-place算法:552;in-place算法:351。
  3. 在很早的时候,我们就已经得到了optimal policy,optimal policy也就是在每一个状态下,选择value最大的action。(可以尝试输出前6个timesteps得到的结果)

总结

算法是相对很简单的算法,只是手动计算比较复杂,书上的例子给出了收敛结果(但我看的时候没注意到那是收敛了的结果),想自己实现一遍,一来体会一下算法实现的过程,二来比较一下二者收敛的速度,想看看每一个time steps后value值的变化,三来也想熟悉一下python编程。
编程还是花了一定的时间,虽然很简单。再接再厉吧。不过这一个过程,也让我对value的计算能有了更巩固的认知,毕竟实践出真知。
纰漏还是有的。我用了dict存储(state, action)对应环境下的s', r, pi信息,但是p信息应该是p(s, a, s', r),这个例子中这个值为1,所以没有考虑,但再更复杂的情况下,是不是要再加一个dict来存储这个信息?
加油加油。

你可能感兴趣的:(【RLaI】动态规划求value的算法(Policy Evaluation))