【强化学习】策略梯度Policy-Gradient

目录

      • Value-based 强化学习方法的不足
      • Policy-based 强化学习方法的引入
      • 策略梯度的优化目标
      • 策略函数的设计
            • Softmax策略函数
            • Gauss策略函数
      • 蒙特卡罗策略梯度reinforce算法
      • 小结

强化学习笔记,内容来自 刘建平老师的博客
 

Value-based 强化学习方法的不足

​ Q-learning、Sarsa、DQN都是基于价值的强化学习算法,存在主要三种不足:

​ 1. 对连续动作的处理能力不足

​ DQN之类的方法一般都是只处理离散动作,无法处理连续动作。

​ 2. 对受限状态下的问题处理能力不足

​ 在使用特征来描述状态空间中的某一个状态时,有可能因为个体观测的限制或者建模的局限,导致真实环境下本来不同的两 个状态却再我们建模后拥有相同的特征描述,进而很有可能导致我们的value Based方法无法得到最优解。

​ 3. 无法解决随机策略问题

​ Value-based强化学习方法对应的最优策略通常是确定性策略,因为其是从众多行为价值中选择一个最大价值的行为,而有 些问题的最优策略却是随机策略,这种情况下同样是无法通过基于价值的学习来求解的。

 
 
 

Policy-based 强化学习方法的引入

​ 在Value-based强化学习方法里,对价值函数进行了近似表示,引入了一个动作价值函数q^,这个函数由参数w描述,并接受状态S与动作A作为输入,计算后得到近似的动作价值,即:

image-20210717104841794

​ 在Policy-based强化学习方法下,采样类似的思路,只不过这时对策略进行近似表示。此时策略π可以被被描述为一个包含参数θ的函数,即:

image-20210717104923401

​ 将策略表示成一个连续的函数后就可以用连续函数的优化方法来寻找最优的策略了,最常用的方法就是梯度上升法。

 
 
 

策略梯度的优化目标

​ 1. 初始状态收获的期望:

image-20210717105539334

​ 2. 平均价值:

image-20210717105604336

​ (其中,dπθ(s)是基于策略πθ生成的马尔科夫链关于状态的静态分布 )

​ 3. 每一时间步的评价奖励:

image-20210717105627455

​ 无论哪一种,最终对θ求导的梯度都可表示为:

image-20210717105814424

​ 还可以采用很多其他可能的优化目标来做梯度上升,此时梯度式子里面的∇θlogπθ(s,a)部分并不改变,变化的只是后面的Qπ(s,a)部分。∇θlogπθ(s,a) 一般称为分值函数(score function)。

 
 
 

策略函数的设计

Softmax策略函数

​ 主要应用于离散空间中,使用描述状态和行为的特征ϕ(s,a) 与参数θ的线性组合来权衡一个行为发生的几率,即:

【强化学习】策略梯度Policy-Gradient_第1张图片

​ 则通过求导求出对应的分值函数为:

image-20210717110539289

Gauss策略函数

​ 主要应用于连续行为空间,对应的行为从高斯分布N(ϕ(s)^T θ,σ^2)中产生。对应的分值函数通过对策略求导可以得到为:

image-20210717110723489

 
 
 

蒙特卡罗策略梯度reinforce算法

​ 蒙特卡罗策略梯度reinforce算法是最简单的策略梯度算法,使用价值函数 v(s) 来近似代替策略梯度公式里面的 Qπ(s,a)。

算法流程:

​ 输入:N个蒙特卡罗完整序列,训练步长α

输出:策略函数的参数θ

​ 1. for 每个蒙特卡罗序列:

​ a)用蒙特卡罗法计算序列每个时间位置t的状态价值 vt

​ b)对序列每个时间位置t,使用梯度上升法更新策略函数的参数θ:

image-20210717111137812

​ 2. 返回策略函数的参数θ(策略函数可以是Softmax策略,高斯策略或者其他策略 )

 
 
 

小结

​ 策略梯度提供了和 DQN 之类的方法不同的新思路,但是简单的蒙特卡罗策略梯度reinforce算法却并不完美。由于是蒙特卡罗法,需要完全的序列样本才能做算法迭代,同时蒙特卡罗法使用收获的期望来计算状态价值,会导致行为有较多的变异性,参数更新的方向很可能不是策略梯度的最优方向。因此,Policy-based的强化学习方法还需要改进,例如 Policy-based与Value-based结合的策略梯度方法Actor-Critic。

你可能感兴趣的:(强化学习笔记,强化学习,reinforcement,learning,机器学习,人工智能)