强化学习(五)-Deterministic Policy Gradient (DPG) 算法及公式推导
针对连续动作空间,策略函数没法预测出每个动作选择的概率。因此使用确定性策略梯度方法。0概览1actor输出确定动作2模型目标:actor目标:使critic值最大critic目标:使TDerror最大3改进:使用两个target网络减少TDerror自举估计。1actor和critic网络确定性策略网络actor:a=π(s;θ)\pi(s;\theta)π(s;θ)输出为确定性的动作a动作价值网