SARSA时序差分学习方法

什么是SARSA

SARSA算法的全称是State Action Reward State Action,属于时序差分学习算法的一种,其综合了动态规划算法和蒙特卡洛算法,比仅仅使用蒙特卡洛方法速度要快很多。当时序差分学习算法每次更新的动作数为最大步数时,就等价于蒙特卡洛方法

值函数更新公式的引入:多次试验的平均

SARSA的核心思想在于增量计算。在蒙特卡洛算法中,我们需要对函数进行有效的估计,假设第次试验后值函数为的平均为:
\begin{aligned} \hat{Q}_{N}^{\pi}(s, a) &=\frac{1}{N} \sum_{n=1}^{N} G\left(\tau_{s_{0}=s, a_{0}=a}^{(n)}\right) \\ &=\frac{1}{N}\left(G\left(\tau_{s_{0}=s, a_{0}=a}^{(N)}\right)+\sum_{n=1}^{N-1} G\left(\tau_{s_{0}=s, a_{0}=a}^{(n)}\right)\right) \\ &=\frac{1}{N}\left(G\left(\tau_{s_{0}=s, a_{0}=a}^{(N)}\right)+(N-1) \hat{Q}_{N-1}^{\pi}(s, a)\right) \\ &=\hat{Q}_{N-1}^{\pi}(s, a)+\frac{1}{N}\left(G\left(\tau_{s_{0}=s, a_{0}=a}^{(N)}\right)-\hat{Q}_{N-1}^{\pi}(s, a)\right) \end{aligned}
其中表示轨迹的起始状态和动作为, 。

省却以上公式的中间过程,我们可以将该公式简化为如下:

在该公式中,值函数在第次试验后的值,即次试验的平均等于前次试验再加上一个增量。在该公式中,可以表示成第次试验相对于前次试验的重要性

值函数更新公式的改进:权重参数的调整

更一般性的,我们可以将权重系数改成一个比较小的正数,由此,以上公式可以被改写成为以下:

其中,增量称为蒙特卡洛误差,表示真实的回报与期望回报之间的差距。

值函数更新公式的改进:累积奖励的计算

在上面的公式中,为一次试验的完整轨迹所得到的总回报,为了提高效率,放宽模型的约束,可以借助动态规划算法来计算,而不需要得到完整的轨迹。

从开始,采样下一步的状态和动作,并得到奖励,然后利用贝尔曼方程来近似估计函数。
\begin{aligned} G\left(\tau_{s 0}=s, a_{0}=a, s_{1}=s^{\prime}, a_{1}=a^{\prime}\right) &=r\left(s, a, s^{\prime}\right)+\gamma G\left(\tau_{s 0}=s^{\prime}, a_{0}=a^{\prime}\right) \\ & \approx r\left(s, a, s^{\prime}\right)+\gamma \hat{Q}^{\pi}\left(s^{\prime}, a^{\prime}\right) \end{aligned}
贝尔曼方程的思想精髓在于动态规划,即当前值的计算依赖于上一时刻的值。对于无最终状态的情况,我们定义了折扣率来重点强调现世的回报。

将以上公式结合,可以得到以下计算公式:

这种策略学习算法称为算法。

通用算法框架:一个示例

一个通用的算法如下所示:

SARSA时序差分学习方法_第1张图片
SARSA算法框架

该算法的大致逻辑如下:

  1. 运行完一个回合即一个内循环。
  2. 运行直到函数收敛即为一个外循环。
  3. 运行期间动态更新函数,并基于函数更新策略。

时序差分学习和蒙特卡罗方法的主要不同为:蒙特卡罗需要完整一个路径完成才能知道其总回报,也不依赖马尔可夫性质;而时序差分学习只需要一步,其总回报需要依赖马尔可夫性质来进行近似估计。

你可能感兴趣的:(SARSA时序差分学习方法)