强化学习7日打卡营—心得体会

之前看论文的时候发现很多文章都会用到强化学习,平时也只是零零碎碎地了解学习到一些,没有对强化学习有个系统的认识。

从了解最初的RL基础知识,到环境搭建,到动手实践,调模型,在这7天虽然很短但收获满满,快速高效入门RL。

最后呢,很感谢这次百度的七日打卡学习强化学习,感谢科科老师的讲解(讲得真的很棒,很容易理解),感谢所有为这次课程辛勤付出的老师,也感谢讨论区的大佬们。

附:课程大纲

一、强化学习(RL)初印象

  • RL 概述、入门路线
  • 实践:环境搭建
  • 课后作业:搭建GYM环境+PARL环境,把QuickStart 跑起来

二、基于表格型方法求解RL

  • MDP、状态价值、Q表格
  • 实践: Sarsa、Q-learning代码解析,解决悬崖问题及其对比
  • 课后作业:使用Q-learning和Sarsa解决16宫格迷宫问题。

三、基于神经网络方法求解RL

  • 函数逼近方法
  • 实践:DQN代码解析,解决CartPole问题
  • 课后作业:使用DQN解决 MountianCar问题

四、基于策略梯度求解RL

  • 策略近似、策略梯度
  • 实践:Policy Gradient算法理解、代码解析,解决CartPole问题
  • 课后作业:使用Policy Gradient解决Atari的Pong问题

五、连续动作空间上求解RL

  • 连续动作空间、DDPG算法介绍
  • PARL DDPG代码解析
  • 大作业题目
  • RLSchool 飞行器仿真环境介绍

参考资料

《Reinforcement Learning:An Introduction》

伯克利2018 Deep RL课程:http://rail.eecs.berkeley.edu/deeprlcourse/

强化学习库 PARL:https://github.com/PaddlePaddle/PARL

你可能感兴趣的:(强化学习7日打卡营—心得体会)