深度强化学习 PPO 模型解析,附Pytorch完整代码
Posted 立Sir
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了深度强化学习 PPO 模型解析,附Pytorch完整代码相关的知识,希望对你有一定的参考价值。
大家好,今天和各位分享一下深度强化学习中的近端策略优化算法(proximal policy optimization,PPO),并借助 OpenAI 的 gym 环境完成一个小案例,完整代码可以从我的 GitHub 中获得:
https://github.com/LiSir-HIT/Reinforcement-Learning/tree/main/Model
1. 算法原理
PPO 算法之所以被提出,根本原因在于 Policy Gradient 在处理连续动作空间时 Learning rate 取值抉择困难。Learning rate 取值过小,就会导致深度强化学习收敛性较差,陷入完不成训练的局面,取值过大则导致新旧策略迭代时数据不一致,造成学习波动较大或局部震荡。除此之外,Policy Gradient 因为在线学习的性质,进行迭代策略时原先的采样数据无法被重复利用,每次迭代都需要重新采样;
同样地置信域策略梯度算法(Trust Region Policy Optimization,TRPO)虽然利用重要性采样(Important-sampling)、共轭梯度法求解提升了样本效率、训练速率等,但在处理函数的二阶近似时会面临计算量过大,以及实现过程复杂、兼容性差等缺陷。
PPO 算法具备 Policy Gradient、TRPO 的部分优点,采样数据和使用随机梯度上升方法优化代替目标函数之间交替进行,虽然标准的策略梯度方法对每个数据样本执行一次梯度更新,但 PPO 提出新目标函数,可以实现小批量更新。
鉴于上述问题,该算法在迭代更新时,观察当前策略在 t 时刻智能体处于状态 s 所采取的行为概率,与之前策略所采取行为概率 ,计算概率的比值来控制新策略更新幅度,比值 记作:
若新旧策略差异明显且优势函数较大,则适当增加更新幅度;若 比值越接近 1,表明新旧策略差异越小。
优势函数代表,在状态 s 下,行为 a 相对于均值的偏差。在论文中,优势函数 使用 GAE(generalized advantage estimation)来计算:
PPO 算法可依据 Actor 网络的更新方式细化为含有自适应 KL-散度(KL Penalty)的 PPO-Penalty 和含有 Clippped Surrogate Objective 函数的 PPO-Clip。
(1)PPO-Penalty 基于KL 惩罚项优化目标函数,实验证明惩罚项系数 在迭代过程中并非固定值,需要动态调整惩罚权重,其目标函数 L 可以定义为:
惩罚项 的初始值的选择对算法几乎无影响,原因是它能在每次迭代时依据新旧策略的 KL 散度做适宜调整,首先设置 KL 散度阈值 ,再通过下面的表达式计算 :
如果 时,证明散度较小,需要弱化惩罚力度, 调整为 ;
如果 时,证明散度较大,需要增强惩罚力度, 调整为 。
(2)PPO-Clip 直接对新旧策略比例进行一定程度的 Clip 操作,以约束变化幅度。其目标函数的计算方式如下:
其中, 代表截断超参数,一般设定值为 0.2; 表示截断函数,负责限制比例 在 区间之内,以保证收敛性;最终 借助 函数选取未截断与截断目标之间的更小值,形成目标下限。 可以分为优势函数 A 为正数和负数两种情况,其变化趋势如下图所示:
如果优势函数为正数,需要增大新旧策略比值 ,然而当 时,将不提供额外的激励;如果优势函数是负数,需要减少新旧策略比值 ,但在 时,不提供额外的激励,这使得新旧策略的差异被限制在合理范围内。PPO 本质上基于 Actor-Critic 框架,算法流程如下:
PPO 算法主要由 Actor 和 Critic 两部分构成,Critic 部分更新方式与其他Actor-Critic 类型相似,通常采用计算 TD error(时序差分误差)形式。对于 Actor 的更新方式,PPO 可在KLPENL 、CLIPL 之间选择对于当前实验环境稳定性适用性更强的目标函数,经过 OpenAI 研究团队实验论证,PPO- Clip 比 PPO- Penalty有更好的数据效率和可行性。
2. 代码实现
下面我就采用 Clip 形式的 PPO。模型构建代码如下。下面的模型适用于 action 是离散的情况,连续情况的代码可以从我的 GitHub 中获取。
# 代码用于离散环境的模型
import numpy as np
import torch
from torch import nn
from torch.nn import functional as F
# ----------------------------------- #
# 构建策略网络--actor
# ----------------------------------- #
class PolicyNet(nn.Module):
def __init__(self, n_states, n_hiddens, n_actions):
super(PolicyNet, self).__init__()
self.fc1 = nn.Linear(n_states, n_hiddens)
self.fc2 = nn.Linear(n_hiddens, n_actions)
def forward(self, x):
x = self.fc1(x) # [b,n_states]-->[b,n_hiddens]
x = F.relu(x)
x = self.fc2(x) # [b, n_actions]
x = F.softmax(x, dim=1) # [b, n_actions] 计算每个动作的概率
return x
# ----------------------------------- #
# 构建价值网络--critic
# ----------------------------------- #
class ValueNet(nn.Module):
def __init__(self, n_states, n_hiddens):
super(ValueNet, self).__init__()
self.fc1 = nn.Linear(n_states, n_hiddens)
self.fc2 = nn.Linear(n_hiddens, 1)
def forward(self, x):
x = self.fc1(x) # [b,n_states]-->[b,n_hiddens]
x = F.relu(x)
x = self.fc2(x) # [b,n_hiddens]-->[b,1] 评价当前的状态价值state_value
return x
# ----------------------------------- #
# 构建模型
# ----------------------------------- #
class PPO:
def __init__(self, n_states, n_hiddens, n_actions,
actor_lr, critic_lr, lmbda, epochs, eps, gamma, device):
# 实例化策略网络
self.actor = PolicyNet(n_states, n_hiddens, n_actions).to(device)
# 实例化价值网络
self.critic = ValueNet(n_states, n_hiddens).to(device)
# 策略网络的优化器
self.actor_optimizer = torch.optim.Adam(self.actor.parameters(), lr=actor_lr)
# 价值网络的优化器
self.critic_optimizer = torch.optim.Adam(self.critic.parameters(), lr = critic_lr)
self.gamma = gamma # 折扣因子
self.lmbda = lmbda # GAE优势函数的缩放系数
self.epochs = epochs # 一条序列的数据用来训练轮数
self.eps = eps # PPO中截断范围的参数
self.device = device
# 动作选择
def take_action(self, state):
# 维度变换 [n_state]-->tensor[1,n_states]
state = torch.tensor(state[np.newaxis, :]).to(self.device)
# 当前状态下,每个动作的概率分布 [1,n_states]
probs = self.actor(state)
# 创建以probs为标准的概率分布
action_list = torch.distributions.Categorical(probs)
# 依据其概率随机挑选一个动作
action = action_list.sample().item()
return action
# 训练
def learn(self, transition_dict):
# 提取数据集
states = torch.tensor(transition_dict['states'], dtype=torch.float).to(self.device)
actions = torch.tensor(transition_dict['actions']).to(self.device).view(-1,1)
rewards = torch.tensor(transition_dict['rewards'], dtype=torch.float).to(self.device).view(-1,1)
next_states = torch.tensor(transition_dict['next_states'], dtype=torch.float).to(self.device)
dones = torch.tensor(transition_dict['dones'], dtype=torch.float).to(self.device).view(-1,1)
# 目标,下一个状态的state_value [b,1]
next_q_target = self.critic(next_states)
# 目标,当前状态的state_value [b,1]
td_target = rewards + self.gamma * next_q_target * (1-dones)
# 预测,当前状态的state_value [b,1]
td_value = self.critic(states)
# 目标值和预测值state_value之差 [b,1]
td_delta = td_target - td_value
# 时序差分值 tensor-->numpy [b,1]
td_delta = td_delta.cpu().detach().numpy()
advantage = 0 # 优势函数初始化
advantage_list = []
# 计算优势函数
for delta in td_delta[::-1]: # 逆序时序差分值 axis=1轴上倒着取 [], [], []
# 优势函数GAE的公式
advantage = self.gamma * self.lmbda * advantage + delta
advantage_list.append(advantage)
# 正序
advantage_list.reverse()
# numpy --> tensor [b,1]
advantage = torch.tensor(advantage_list, dtype=torch.float).to(self.device)
# 策略网络给出每个动作的概率,根据action得到当前时刻下该动作的概率
old_log_probs = torch.log(self.actor(states).gather(1, actions)).detach()
# 一组数据训练 epochs 轮
for _ in range(self.epochs):
# 每一轮更新一次策略网络预测的状态
log_probs = torch.log(self.actor(states).gather(1, actions))
# 新旧策略之间的比例
ratio = torch.exp(log_probs - old_log_probs)
# 近端策略优化裁剪目标函数公式的左侧项
surr1 = ratio * advantage
# 公式的右侧项,ratio小于1-eps就输出1-eps,大于1+eps就输出1+eps
surr2 = torch.clamp(ratio, 1-self.eps, 1+self.eps) * advantage
# 策略网络的损失函数
actor_loss = torch.mean(-torch.min(surr1, surr2))
# 价值网络的损失函数,当前时刻的state_value - 下一时刻的state_value
critic_loss = torch.mean(F.mse_loss(self.critic(states), td_target.detach()))
# 梯度清0
self.actor_optimizer.zero_grad()
self.critic_optimizer.zero_grad()
# 反向传播
actor_loss.backward()
critic_loss.backward()
# 梯度更新
self.actor_optimizer.step()
self.critic_optimizer.step()
3. 案例演示
基于 OpenAI 的 gym 环境完成一个推车游戏,一个离散的环境,目标是左右移动小车将黄色的杆子保持竖直。动作维度为2,属于离散值;状态维度为 4,分别是坐标、速度、角度、角速度。
import numpy as np
import matplotlib.pyplot as plt
import gym
import torch
from RL_brain import PPO
device = torch.device('cuda') if torch.cuda.is_available() \\
else torch.device('cpu')
# ----------------------------------------- #
# 参数设置
# ----------------------------------------- #
num_episodes = 100 # 总迭代次数
gamma = 0.9 # 折扣因子
actor_lr = 1e-3 # 策略网络的学习率
critic_lr = 1e-2 # 价值网络的学习率
n_hiddens = 16 # 隐含层神经元个数
env_name = 'CartPole-v1'
return_list = [] # 保存每个回合的return
# ----------------------------------------- #
# 环境加载
# ----------------------------------------- #
env = gym.make(env_name, render_mode="human")
n_states = env.observation_space.shape[0] # 状态数 4
n_actions = env.action_space.n # 动作数 2
# ----------------------------------------- #
# 模型构建
# ----------------------------------------- #
agent = PPO(n_states=n_states, # 状态数
n_hiddens=n_hiddens, # 隐含层数
n_actions=n_actions, # 动作数
actor_lr=actor_lr, # 策略网络学习率
critic_lr=critic_lr, # 价值网络学习率
lmbda = 0.95, # 优势函数的缩放因子
epochs = 10, # 一组序列训练的轮次
eps = 0.2, # PPO中截断范围的参数
gamma=gamma, # 折扣因子
device = device
)
# ----------------------------------------- #
# 训练--回合更新 on_policy
# ----------------------------------------- #
for i in range(num_episodes):
state = env.reset()[0] # 环境重置
done = False # 任务完成的标记
episode_return = 0 # 累计每回合的reward
# 构造数据集,保存每个回合的状态数据
transition_dict =
'states': [],
'actions': [],
'next_states': [],
'rewards': [],
'dones': [],
while not done:
action = agent.take_action(state) # 动作选择
next_state, reward, done, _, _ = env.step(action) # 环境更新
# 保存每个时刻的状态\\动作\\...
transition_dict['states'].append(state)
transition_dict['actions'].append(action)
transition_dict['next_states'].append(next_state)
transition_dict['rewards'].append(reward)
transition_dict['dones'].append(done)
# 更新状态
state = next_state
# 累计回合奖励
episode_return += reward
# 保存每个回合的return
return_list.append(episode_return)
# 模型训练
agent.learn(transition_dict)
# 打印回合信息
print(f'iter:i, return:np.mean(return_list[-10:])')
# -------------------------------------- #
# 绘图
# -------------------------------------- #
plt.plot(return_list)
plt.title('return')
plt.show()
训练100回合,绘制每回合的 return
深度强化学习 DQN 模型解析,附Pytorch完整代码
大家好,今天和各位讲解一下深度强化学习中的基础模型 DQN,配合 OpenAI 的 gym 环境,训练模型完成一个小游戏,完整代码可以从我的 GitHub 中获得:
https://github.com/LiSir-HIT/Reinforcement-Learning/tree/main/Model
1. 算法原理
1.1 基本原理
DQN(Deep Q Network)算法由 DeepMind 团队提出,是深度神经网络和 Q-Learning 算法相结合的一种基于价值的深度强化学习算法。
Q-Learning 算法构建了一个状态-动作值的 Q 表,其维度为 (s,a),其中 s 是状态的数量,a 是动作的数量,根本上是 Q 表将状态和动作映射到 Q 值。此算法适用于状态数量能够计算的场景。但是在实际场景中,状态的数量可能很大,这使得构建 Q 表难以解决。为破除这一限制,我们使用 Q 函数来代替 Q 表的作用,后者将状态和动作映射到 Q 值的结果相同。
由于神经网络擅长对复杂函数进行建模,因此我们用其当作函数近似器来估计此 Q 函数,这就是 Deep Q Networks。此网络将状态映射到可从该状态执行的所有动作的 Q 值。即只要输入一个状态,网络就会输出当前可执行的所有动作分别对应的 Q 值。如下图所示,它学习网络的权重,以此输出最佳 Q 值。
1.2 模型结构
DQN 体系结构主要包含:Q 网络、目标网络,以及经验回放组件。.Q 网络是经过训练以生成最佳状态-动作值的 agent。经验回放单元的作用是与环境交互,生成数据以训练 Q 网络。目标网络与 Q 网络在初始时是完全相同的。DQN 工作流程图如下
1.2.1 经验回放
经验回放从当前状态中以贪婪策略 选择一个动作,执行后从环境中获得奖励和下一步的状态,如下图所示。
然后将此观测值另存为用于训练数据的样本,如下图所示。
与 Q Learning 算法不同,经验回放组件的存在有其必须性。神经网络通常接受一批数据,如果我们用单个样本去训练它,每个样本和相应的梯度将具有很大的方差,并且会导致网络权重永远不会收敛。
当我们训练神经网络时,最好的做法是在随机打乱的训练数据中选择一批样本。这确保了训练数据有足够的多样性,使网络能够学习有意义的权重,这些权重可以很好地泛化并且可以处理一系列数据值。如果我们以顺序动作传递一批数据,则不会达到此效果。
所以可得出结论:顺序操作彼此高度相关,并且不会像网络所希望的那样随机洗牌。这导致了一个 “灾难性遗忘” 的问题,网络忘记了它不久前学到的东西。
以上是引入经验回放组件的原因。智能体在内存容量范围内从一开始就执行的所有动作和观察都将被存储。然后从此存储器中随机选择一批样本。这确保了批次是经过打乱,并且包含来自旧样品和较新样品的足够多样性,这样能保证训练过的网络具有能处理所有场景的权重。
# --------------------------------------- #
# 经验回放池
# --------------------------------------- #
class ReplayBuffer():
def __init__(self, capacity):
# 创建一个先进先出的队列,最大长度为capacity,保证经验池的样本量不变
self.buffer = collections.deque(maxlen=capacity)
# 将数据以元组形式添加进经验池
def add(self, state, action, reward, next_state, done):
self.buffer.append((state, action, reward, next_state, done))
# 随机采样batch_size行数据
def sample(self, batch_size):
transitions = random.sample(self.buffer, batch_size) # list, len=32
# *transitions代表取出列表中的值,即32项
state, action, reward, next_state, done = zip(*transitions)
return np.array(state), action, reward, np.array(next_state), done
# 目前队列长度
def size(self):
return len(self.buffer)
1.2.2 Q 网络预测 Q 值
所有之前的经验回放都将保存为训练数据。现在从此训练数据中随机抽取一批样本,以便它包含较旧样本和较新样本的混合。随后将这批训练数据输入到两个网络。Q 网络从每个数据样本中获取当前状态和操作,并预测该特定操作的 Q 值,这是“预测 Q 值”。如下图所示。
1.2.3 目标网络预测目标 Q 值
目标网络从每个数据样本中获取下一个状态,并可以从该状态执行的所有操作中预测最佳 Q 值,这是“目标 Q 值”。如下图所示。
DQN 同时用到两个结构相同参数不同的神经网络,区别是一个用于训练,另一个不会在短期内得到训练,这样设置是从考虑实际效果出发的必然需求。
如果构建具有单个 Q 网络且不存在目标网络的 DQN,假设此网络应该如下工作:通过 Q 网络执行两次传递,首先输出 “预测 Q 值”,然后输出 “目标 Q 值”。这可能会产生一个潜在的问题:Q 网络的权重在每个时间步长都会更新,从而改进了对“预测 Q 值”的预测。但是,由于网络及其权重相同,因此它也改变了我们预测的“目标 Q 值”的方向。它们不会保持稳定,在每次更新后可能会波动,类似一直追逐一个移动着的目标。
通过采用第二个未经训练的网络,可以确保 “目标 Q 值” 至少在短时间内保持稳定。但这些“目标 Q 值”毕竟只是预测值,这是为改善它们的数值做出的妥协。所以在经过预先配置的时间步长后,需将 Q 网络中更新的权重复制到目标网络。
可以得出,使用目标网络可以带来更稳定的训练。
1.2.2 和 1.2.3 代码对应如下:
# -------------------------------------- #
# 构造深度学习网络,输入状态s,得到各个动作的reward
# -------------------------------------- #
class Net(nn.Module):
# 构造只有一个隐含层的网络
def __init__(self, n_states, n_hidden, n_actions):
super(Net, self).__init__()
# [b,n_states]-->[b,n_hidden]
self.fc1 = nn.Linear(n_states, n_hidden)
# [b,n_hidden]-->[b,n_actions]
self.fc2 = nn.Linear(n_hidden, n_actions)
# 前传
def forward(self, x): # [b,n_states]
x = self.fc1(x)
x = self.fc2(x)
return x
# -------------------------------------- #
# 构造深度强化学习模型
# -------------------------------------- #
class DQN:
#(1)初始化
def __init__(self, n_states, n_hidden, n_actions,
learning_rate, gamma, epsilon,
target_update, device):
# 属性分配
self.n_states = n_states # 状态的特征数
self.n_hidden = n_hidden # 隐含层个数
self.n_actions = n_actions # 动作数
self.learning_rate = learning_rate # 训练时的学习率
self.gamma = gamma # 折扣因子,对下一状态的回报的缩放
self.epsilon = epsilon # 贪婪策略,有1-epsilon的概率探索
self.target_update = target_update # 目标网络的参数的更新频率
self.device = device # 在GPU计算
# 计数器,记录迭代次数
self.count = 0
# 构建2个神经网络,相同的结构,不同的参数
# 实例化训练网络 [b,4]-->[b,2] 输出动作对应的奖励
self.q_net = Net(self.n_states, self.n_hidden, self.n_actions)
# 实例化目标网络
self.target_q_net = Net(self.n_states, self.n_hidden, self.n_actions)
# 优化器,更新训练网络的参数
self.optimizer = torch.optim.Adam(self.q_net.parameters(), lr=self.learning_rate)
#(3)网络训练
def update(self, transition_dict): # 传入经验池中的batch个样本
# 获取当前时刻的状态 array_shape=[b,4]
states = torch.tensor(transition_dict['states'], dtype=torch.float)
# 获取当前时刻采取的动作 tuple_shape=[b],维度扩充 [b,1]
actions = torch.tensor(transition_dict['actions']).view(-1,1)
# 当前状态下采取动作后得到的奖励 tuple=[b],维度扩充 [b,1]
rewards = torch.tensor(transition_dict['rewards'], dtype=torch.float).view(-1,1)
# 下一时刻的状态 array_shape=[b,4]
next_states = torch.tensor(transition_dict['next_states'], dtype=torch.float)
# 是否到达目标 tuple_shape=[b],维度变换[b,1]
dones = torch.tensor(transition_dict['dones'], dtype=torch.float).view(-1,1)
# 输入当前状态,得到采取各运动得到的奖励 [b,4]==>[b,2]==>[b,1]
# 根据actions索引在训练网络的输出的第1维度上获取对应索引的q值(state_value)
q_values = self.q_net(states).gather(1, actions) # [b,1]
# 下一时刻的状态[b,4]-->目标网络输出下一时刻对应的动作q值[b,2]-->
# 选出下个状态采取的动作中最大的q值[b]-->维度调整[b,1]
max_next_q_values = self.target_q_net(next_states).max(1)[0].view(-1,1)
# 目标网络输出的当前状态的q(state_value):即时奖励+折扣因子*下个时刻的最大回报
q_targets = rewards + self.gamma * max_next_q_values * (1-dones)
# 目标网络和训练网络之间的均方误差损失
dqn_loss = torch.mean(F.mse_loss(q_values, q_targets))
# PyTorch中默认梯度会累积,这里需要显式将梯度置为0
self.optimizer.zero_grad()
# 反向传播参数更新
dqn_loss.backward()
# 对训练网络更新
self.optimizer.step()
# 在一段时间后更新目标网络的参数
if self.count % self.target_update == 0:
# 将目标网络的参数替换成训练网络的参数
self.target_q_net.load_state_dict(
self.q_net.state_dict())
self.count += 1
DQN 模型伪代码:
2. 实例演示
接下来我们用 GYM 库中的车杆稳定小游戏来验证一下我们构建好的 DQN 模型,导入最基本的库,设置参数。有关 GYM 强化学习环境的内容可以查看官方文档:
环境的状态 state 包含四个:位置、速度、角度、角速度;动作 action 包含 2 个:小车左移和右移;目的是保证杆子竖直。环境交互与模型训练如下:
import gym
from RL_DQN import DQN, ReplayBuffer
import torch
from tqdm import tqdm
import matplotlib.pyplot as plt
# GPU运算
device = torch.device("cuda") if torch.cuda.is_available() \\
else torch.device("cpu")
# ------------------------------- #
# 全局变量
# ------------------------------- #
capacity = 500 # 经验池容量
lr = 2e-3 # 学习率
gamma = 0.9 # 折扣因子
epsilon = 0.9 # 贪心系数
target_update = 200 # 目标网络的参数的更新频率
batch_size = 32
n_hidden = 128 # 隐含层神经元个数
min_size = 200 # 经验池超过200后再训练
return_list = [] # 记录每个回合的回报
# 加载环境
env = gym.make("CartPole-v1", render_mode="human")
n_states = env.observation_space.shape[0] # 4
n_actions = env.action_space.n # 2
# 实例化经验池
replay_buffer = ReplayBuffer(capacity)
# 实例化DQN
agent = DQN(n_states=n_states,
n_hidden=n_hidden,
n_actions=n_actions,
learning_rate=lr,
gamma=gamma,
epsilon=epsilon,
target_update=target_update,
device=device,
)
# 训练模型
for i in range(500): # 100回合
# 每个回合开始前重置环境
state = env.reset()[0] # len=4
# 记录每个回合的回报
episode_return = 0
done = False
# 打印训练进度,一共10回合
with tqdm(total=10, desc='Iteration %d' % i) as pbar:
while True:
# 获取当前状态下需要采取的动作
action = agent.take_action(state)
# 更新环境
next_state, reward, done, _, _ = env.step(action)
# 添加经验池
replay_buffer.add(state, action, reward, next_state, done)
# 更新当前状态
state = next_state
# 更新回合回报
episode_return += reward
# 当经验池超过一定数量后,训练网络
if replay_buffer.size() > min_size:
# 从经验池中随机抽样作为训练集
s, a, r, ns, d = replay_buffer.sample(batch_size)
# 构造训练集
transition_dict =
'states': s,
'actions': a,
'next_states': ns,
'rewards': r,
'dones': d,
# 网络更新
agent.update(transition_dict)
# 找到目标就结束
if done: break
# 记录每个回合的回报
return_list.append(episode_return)
# 更新进度条信息
pbar.set_postfix(
'return': '%.3f' % return_list[-1]
)
pbar.update(1)
# 绘图
episodes_list = list(range(len(return_list)))
plt.plot(episodes_list, return_list)
plt.xlabel('Episodes')
plt.ylabel('Returns')
plt.title('DQN Returns')
plt.show()
我简单训练了100轮,每回合的回报 returns 绘图如下。若各位发现代码有误,请及时反馈。
以上是关于深度强化学习 PPO 模型解析,附Pytorch完整代码的主要内容,如果未能解决你的问题,请参考以下文章
深度强化学习 Policy Gradients 模型解析,附Pytorch完整代码
深度强化学习 Actor-Critic 模型解析,附Pytorch完整代码
FlockingPPO无人机群控制算法基于Flocking和PPO深度强化学习的无人机群控制算法的MATLAB仿真