是否有使用强化学习进行文本分类的示例?

Posted

技术标签:

【中文标题】是否有使用强化学习进行文本分类的示例?【英文标题】:Are there examples of using reinforcement learning for text classification? 【发布时间】:2017-11-23 00:07:06 【问题描述】:

想象一下像情感分析这样的二元分类问题。既然我们有标签,我们不能使用实际 - 预测之间的差距作为 RL 的奖励吗?

我想尝试针对分类问题的强化学习

【问题讨论】:

使用 RL 解决分类问题有什么意义?我的意思是,你期待任何改进或优势吗?如本问题所述,通常性能应该更差(或者计算成本更高):***.com/questions/44594007 【参考方案1】:

有趣的想法!据我所知是可以做到的。

    模仿学习 - 在高层次上,它观察代理在环境中执行的样本轨迹,并使用它来预测给定特定统计配置的策略。我更喜欢概率图形模型进行预测,因为我在模型中有更多的可解释性。我从研究论文中实现了类似的算法:http://homes.soic.indiana.edu/natarasr/Papers/ijcai11_imitation_learning.pdf

    逆强化学习 - 同样是由斯坦福大学的 Andrew Ng 开发的一种类似方法,用于从样本轨迹中找到奖励函数,并且奖励函数可用于构建所需的动作。 http://ai.stanford.edu/~ang/papers/icml00-irl.pdf

【讨论】:

以上是关于是否有使用强化学习进行文本分类的示例?的主要内容,如果未能解决你的问题,请参考以下文章

使用机器学习对大文本进行分类

与标签进行一对一匹配以进行文本分类

短文本分类概述

可用于对文本进行语义分析的工具

文本分类方法都有哪些

我应该使用哪种分类模型来进行机器学习中的作者归属?