强化学习笔记:熵正则

Posted UQI-LIUWJ

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了强化学习笔记:熵正则相关的知识,希望对你有一定的参考价值。

0 策略过于确定的优劣

策略学习的目的是学出一个策略网络 用于控制智能体agent。 比如基于某一个状态s,策略网络的输出为:

那么基本上agent进行的动作就是向右了 

这样过于确定性的决策有好有坏:

  • 好处在于不容易选中很差的动作,比较安全。
  • 坏处在于智能体就会安于现状,不去尝试没做过的动作,不去探索更多的状态,无法找到更好的策略。

1 熵正则的引入

        我们希望策略网络的输出的概率不要集中在一个动作上,至少要给其他的动作一些非零的概率,让这些动作能被探索到。         可以用熵 (Entropy) 来衡量概率分布的不确定性。 对于上述离散概率分布 p = [ p 1 , p 2 , p 3],熵等于          熵小说明概率质量很集中,熵大说明随机性很大

 

 2 策略学习中的熵正则

        我们希望策略网络输出的概率分布的熵不要太小。我们不妨把熵作为正则项,放到策略学习的目标函数中。

        

        策略网络的输出是维度等于 |A| 的向量, 它表示定义在动作空间上的离散概率分布。         这个概率分布的熵定义为:         我们希望对大多数状态,熵都比较大,也就是让 比较大。         所以此时,带有熵正则的策略学习可以写作:

 

2.1 带熵正则的优化

带熵正则之后,梯度是:

通过推导可得此时g(θ)的无偏估计是

 2.1.1 推导

而在 强化学习笔记:policy learning_UQI-LIUWJ的博客-CSDN博客中,我们知道

 所以二者一结合,有:

 

参考内容:王树森 强化学习

 

以上是关于强化学习笔记:熵正则的主要内容,如果未能解决你的问题,请参考以下文章

视频编解码·学习笔记7. 熵编码算法:基础知识 & 哈夫曼编码

决策树 随机森林 adaboost

强化学习—— 离散与连续动作空间(随机策略梯度与确定策略梯度)

强化学习笔记:随机高斯策略

各种熵,条件熵,KL

机器学习随机森林AdaBoostGBDTXGBoost从零开始理解