非合作关系设定下的多智能体强化学习

Posted UQI-LIUWJ

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了非合作关系设定下的多智能体强化学习相关的知识,希望对你有一定的参考价值。

 

1 非合作关系下的策略学习

在合作关系下,所有智能体的奖励都相等

在合作关系的剩下,所有智能体有相同的状态价值函数,故而有相同的目标函数 

1.1 非合作关系下的回报与目标函数 

如果是非合作关系

——>两个智能体的奖励不相等,即

——>他们的回报也不相等,即

——>回报的期望(即价值函数)也不相等,此时我们讲这些智能体的价值函数记作

 i 个智能体的目标函数是状态价值的期望

注意:此时目标函数是各不相同的,也就是说各个智能体之间没有共同的目标

注意:第i个智能体的目标函数依赖于所有智能体的策略网络参数

——>因为环境状态S是由所有智能体共同决定的

——>举个例子,你玩MOBA游戏,你自己的策略假设不变,但你队友是菜鸟/大神,他们的策略网络参数θ是不同的,这也会影响到整局比赛的走势,进而影响你的收益和目标函数值

 1.2 非合作关系下的策略学习

在多智能体的策略学习中,第 i 个智能体的目标是改进自己的策略参数 ,使得 尽量大。 多智能体的策略学习可以描述为这样的问题:

再次注意:此时目标函数各不相同,也就是说各个智能体之间没有共同的目标

 策略学习的基本思想是让每个智能体各自做策略梯度上升:

 1.2.1 收敛的条件

在合作关系设定下,所有智能体有相同的目标函数, 那么判断收敛的标准就是目标函数值不再增长。也就是说改变任何智能体的策略都无法让团队的回报增长。 在非合作关系设定下,智能体的利益是不一致的、甚至是冲突的,智能体各有各的目标函数。该如何判断策略学习的收敛呢?不能用 作为判断收敛的标准。 (比如在零和博弈 的游戏中,双方的目标函数是冲突的:  ,如果捕食者改进策略,那么 会增长,而 会下降。自始至终, 一直等于零, 不论策略学习有没有收敛。
  • 在非合作关系设定下,收敛标准是纳什均衡
    • 一个智能体在制定策略的时候,要考虑到其他各方的策略。
    • 在纳什均衡的情况下,每一个智能体都在以最优的方式来应对其他各方的策略。
    • 在纳什均衡的情况下,谁也没有动机去单独改变自己的策略,因为改变策略不会增加自己的收益。
    • 这样就达到了一种平衡状态,所有智能体都找不到更好的策略。这种平衡状态就被认为是收敛。
    • 在实验中,如果所有智能体的平均回报都不再变化,就可以认为达到了纳什均衡

1.2.2 评价策略的优劣

 

 

非合作设定下的多智能体 A2C

(Multi-Agent Non-cooperative A2C),缩写 MAN-A2C

2.1 策略网络和价值网络

MAN-A2C 中,每个智能体有自己的策略网络和价值网络

i 个智能体的策略网络需要把所有智能体的观测

作为输入,并输出一个概率分布
i 个智能体依据该概率分布抽样得到动作

 

 两类神经网络的结构与完全竞争关系下的 MAC-A2C 完全相同。

他们的区别在于

  • MAC-A2C 用于完全合作关系,所有智能体有相同的状态价值函数 V π ( s ) , 所以只用一个神经网络近似 V π ( s ) ,记作 v ( s ; w )
  • MAN-A2C 用于非合作关系,每个智能体 各有一个 状态价值函数 ,所 以每个智能体各自对应一个价值网络

2.2 算法推导

在非合作关系设定下,第 i 号智能体的动作价值函数记作 ,策略网络记作

 

我们用作为定理中的基线,并且用价值网络 近似 和A2C一样,策略梯度可以近似成:

 于是使用TD上升更新策略网络参数

 

2.3 训练流程

 

 和完全合作关系下是一样的

 每一个智能体自己做价值网络更新

 

 每一个智能体自己做策略网络更新

和A2C一样,MAN-A2C 属于同策略 (On-policy),不能使用经验回放。

2.4 决策

 3 三种架构

3.1 中心化训练+中心化决策

这 种方式是不实用的,仅大家理解算法而已。
中央控制器 (Central Controller) 里面部署了所有 m 个价值网络和策略网络:

 

 训练和决策全部由中央控制器完成。智能体负责与环境交互,执行中央控制器的决策, 并把观测到的 汇报给中央控制器。

 3.1.1 MAC-A2C 与 MAN-A2C 的区别

  • MAC-A2C 的中央控制器上只有一个价值网络, MAN-A2C 则有 m 个价值网络。
  • MAC-A2C 的每一轮只有一个全局的奖励rMAN-A2C 的每个智能体都有自己的奖励

3.2 去中心化训练 + 去中心化决策

为了避免“完全中心化”中的通信,可以对策略网络和价值网络做近似,做到“完 全去中心化”。把 MAN-A2C 中的策略网络和价值网络做近似:

 

 

此处的的实现与完全合作关系设定下的“完全去中心化”几乎完全相同 。 唯一的区别在于此处每个智能体获得的奖励 ri是不同的,而上一章完全合作关系设定下的奖励是相同的

 

3.3 中心化训练 + 去中心化决策

与“完全中心化”的 MAN-A2C 相比,唯一的区别在于对策略网络做近似:

 

由于用智能体局部观测 替换了全局状态,策略网络可以部署到每个智能体上。而价值网络仍然是,没有做近似。

 

中央控制器上有所有的价值网络及其目标网络

 中央控制器用智能体发来的观测和奖励训练这些价值网络。

  • 中央控制器把 TD 误差反馈给智能体
  • 第i号智能体用,本地的更新自己的策略网络

3.3.1 中心化训练

 

 每一个智能体与环境交互,获得数据

中央控制器分别更新m个智能体的 价值网络和目标网络

 

 中央控制器把 TD 误差反馈给对应的智能体后,每个智能体分别更新自己的策略网络

 3.3.2 去中心化决策

 

以上是关于非合作关系设定下的多智能体强化学习的主要内容,如果未能解决你的问题,请参考以下文章

强化学习笔记:连续控制与 MADDPG

强化学习笔记:self-attention + multi-agent RL(中心化训练)

MAGNet: 面向深度多智能体强化学习(MADRL)的多智能体图网络(Graph Network)

基于强化学习的多智能体框架在路由和调度问题中的应用

前沿 | DeepMind提出新型架构IMPALA:帮助实现单智能体的多任务强化学习

最新多智能体强化学习方法总结