【多智能体强化学习】

参考链接
多智能体深度强化学习综述与批判.2019
万字长文:详解多智能体强化学习的基础和应用

与单智能体强化学习的区别

多智能体强化学习的难点:

  • 环境的不稳定性:决策相互影响
  • 信息局限性:单个智能体难以获得全局信息
  • 目标一致性:各智能体的目标可能是获得总体最优也可能是个体最优,如何定义奖励函数是个问题
  • 可扩展性:大规模多智能体系统对算力产生要求
    【多智能体强化学习】_第1张图片
    增加了新的学习目标(模型与模型之间的交互)

将其他智能体考虑为环境的一部分是否可行?
不可行,模型的不是稳态的,模型之间是策略是相互影响的。

【回顾】Q-Learning:价值学习算法, Q ( s , a ) Q(s,a) Q(s,a)是在某一时刻的 s 状态下(s∈S),采取 动作a (a∈A)动作能够获得收益的期望,主要思想是将State与Action构建成一张Q-table来存储Q值,然后根据Q值来选取能够获得最大的收益的动作。

问题定义

【多智能体强化学习】_第2张图片

在博弈论视角下,序贯决策的三种问题:

  • 马尔可夫决策过程:单智能体 多状态
  • 重复博弈:多智能体 单一状态
  • 随即博弈(马尔可夫博弈):多智能体 多状态

多智能体强化学习属于随机博弈

随机博弈

【多智能体强化学习】_第3张图片
通过数学工具进行描述
【多智能体强化学习】_第4张图片【多智能体强化学习】_第5张图片

基本方法

按照智能体之间关系分类

完全竞争关系

minimax Q-Learning 零和随机博弈

按照是否中心化分类

【多智能体强化学习】_第6张图片

完全中心化方法

1. 整体智能体

用于合作任务
【多智能体强化学习】_第7张图片
计算量指数级增长,计算难度太大

2. 纳什Q-Learning

【多智能体强化学习】_第8张图片
【多智能体强化学习】_第9张图片
【多智能体强化学习】_第10张图片
【多智能体强化学习】_第11张图片

完全去中心化方法

鸵鸟算法
【多智能体强化学习】_第12张图片
【多智能体强化学习】_第13张图片
注:PPO:大概类似actor-critic方法
【多智能体强化学习】_第14张图片

中心化训练 去中心化执行

类似于:训练的时候场上有教练指导大家,告诉大家什么动作是对的什么是不对的,真正比赛的时候,教练离场
【多智能体强化学习】_第15张图片

数学模型

【多智能体强化学习】_第16张图片
【多智能体强化学习】_第17张图片
【多智能体强化学习】_第18张图片
【多智能体强化学习】_第19张图片

【多智能体强化学习】_第20张图片

你可能感兴趣的:(深度强化学习,人工智能)