如何评估在 rllib (Ray) 中自定义环境中训练的演员?

Posted

技术标签:

【中文标题】如何评估在 rllib (Ray) 中自定义环境中训练的演员?【英文标题】:How to evaluate actors trained in custom environments in rllib (Ray)? 【发布时间】:2019-08-16 21:09:04 【问题描述】:

按照SimpleCorridor 示例,我可以创建自己的环境并训练模型!好的。但是当我尝试评估这个经过训练的模型时,rllib 无法识别我的自定义环境。

如何在自定义环境中评估经过训练的模型?

当我像建议的here 那样使用rllib rollout ... 时,它无法识别我的环境,因为它是自定义环境。我希望有一个像run_experiments 这样的函数,但又像evaluate_experiment 这样我可以在我的一个文件中的项目上调用它。

这就是问题所在。 如果你想看我的 custon_env 是这个one

现在我必须复制我的环境并将其粘贴到 gym/envs/ 包目录中,然后将其注册到 __init__.py 文件中。

很高兴看到另一种方法来做到这一点

谢谢

【问题讨论】:

【参考方案1】:

您可以复制 rollout.py 脚本并对其进行修改以在脚本开头注册任何自定义环境或模型。这将允许它与任何不在健身房的环境一起工作。

【讨论】:

以上是关于如何评估在 rllib (Ray) 中自定义环境中训练的演员?的主要内容,如果未能解决你的问题,请参考以下文章

给定一个训练有素的环境,我如何评估特定状态的策略?

强化学习rllib简明教程 ray

强化学习rllib简明教程 ray

更改 Ray RLlib Training 的 Logdir 而不是 ~/ray_results

rllib 使用自定义注册环境

在 Life ray 中自定义站点管理员角色的权限?