是否有使用强化学习进行文本分类的示例?
Posted
技术标签:
【中文标题】是否有使用强化学习进行文本分类的示例?【英文标题】:Are there examples of using reinforcement learning for text classification? 【发布时间】:2017-11-23 00:07:06 【问题描述】:想象一下像情感分析这样的二元分类问题。既然我们有标签,我们不能使用实际 - 预测之间的差距作为 RL 的奖励吗?
我想尝试针对分类问题的强化学习
【问题讨论】:
使用 RL 解决分类问题有什么意义?我的意思是,你期待任何改进或优势吗?如本问题所述,通常性能应该更差(或者计算成本更高):***.com/questions/44594007 【参考方案1】:有趣的想法!据我所知是可以做到的。
模仿学习 - 在高层次上,它观察代理在环境中执行的样本轨迹,并使用它来预测给定特定统计配置的策略。我更喜欢概率图形模型进行预测,因为我在模型中有更多的可解释性。我从研究论文中实现了类似的算法:http://homes.soic.indiana.edu/natarasr/Papers/ijcai11_imitation_learning.pdf
逆强化学习 - 同样是由斯坦福大学的 Andrew Ng 开发的一种类似方法,用于从样本轨迹中找到奖励函数,并且奖励函数可用于构建所需的动作。 http://ai.stanford.edu/~ang/papers/icml00-irl.pdf
【讨论】:
以上是关于是否有使用强化学习进行文本分类的示例?的主要内容,如果未能解决你的问题,请参考以下文章