如何评估在 rllib (Ray) 中自定义环境中训练的演员?
Posted
技术标签:
【中文标题】如何评估在 rllib (Ray) 中自定义环境中训练的演员?【英文标题】:How to evaluate actors trained in custom environments in rllib (Ray)? 【发布时间】:2019-08-16 21:09:04 【问题描述】:按照SimpleCorridor 示例,我可以创建自己的环境并训练模型!好的。但是当我尝试评估这个经过训练的模型时,rllib 无法识别我的自定义环境。
如何在自定义环境中评估经过训练的模型?
当我像建议的here 那样使用rllib rollout ...
时,它无法识别我的环境,因为它是自定义环境。我希望有一个像run_experiments
这样的函数,但又像evaluate_experiment
这样我可以在我的一个文件中的项目上调用它。
这就是问题所在。 如果你想看我的 custon_env 是这个one
现在我必须复制我的环境并将其粘贴到 gym/envs/
包目录中,然后将其注册到 __init__.py
文件中。
很高兴看到另一种方法来做到这一点
谢谢
【问题讨论】:
【参考方案1】:您可以复制 rollout.py 脚本并对其进行修改以在脚本开头注册任何自定义环境或模型。这将允许它与任何不在健身房的环境一起工作。
【讨论】:
以上是关于如何评估在 rllib (Ray) 中自定义环境中训练的演员?的主要内容,如果未能解决你的问题,请参考以下文章