多标签分类

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了多标签分类相关的知识,希望对你有一定的参考价值。

参考技术A 参考文章:
<<YOLO9000: Better, Faster, Stronger>>
<<YOLOv3: An Incremental Improvement>>
<<Large-Scale Object Detection in the Wild from Imbalanced Multi-Labels>>

多标签,根据标签之间的关系,有以下几种情况:

但是在多标签时,softmax会引入各个类别之间的竞争。
在YOLOv2中,提出可以联合训练分类和检测数据,但是分类数据集往往类别较多。建立一个表示类别层次关系的WordTree,“同级”类别之间做softmax。

在YOLOv3中,使用logistic对于每一类进行2分类。每个类别使用二元交叉熵损失。
举例:在训练YOLOv3时,如果一个目标x有2个类别0和1,在给真值标签时,会给2条——(x, y=0)和(x, y=1),这样在训练时,损失函数如下,其中 是one-hot编码的向量,在索引为c的地方为1.在最小化损失函数的过程中,对于 ,p=q。这样在进行预测时,优化的目标是 ,可能导致在预测时,类别的置信度会接近0.5,而不是1。

论文<<Large-Scale Object Detection in the Wild from Imbalanced Multi-Labels>>提出concurrent-softmax

BERT-多标签文本分类实战之一——实战项目总览

[1] 总览

  【BERT-多标签文本分类实战】系列共七篇文章:

  【BERT-多标签文本分类实战】之一——实战项目总览
  【BERT-多标签文本分类实战】之二——BERT的地位与名词术语解释
  【BERT-多标签文本分类实战】之三——多标签文本分类的方向与常用数据集介绍
  【BERT-多标签文本分类实战】之四——数据集预处理
  【BERT-多标签文本分类实战】之五——BERT模型库的挑选与Transformers
  【BERT-多标签文本分类实战】之六——数据加载与模型代码
  【BERT-多标签文本分类实战】之七——训练-评估-测试与运行主程序


  目前来看,如果方向是文本分类的话,英文文本分类、中文文本分类都需要掌握。

  很多数据集都是英文的,比如多标签文本数据集、层次结构标签文本数据集,想在方向上更进一步的话,必须得学会处理英文文本。

  而随着近些年的发展,bert算是表现超级好的几种模型之一,所以有必要跑一跑bert相关的模型。


[2] 代码获取地址

  如果需要本组件的源代码,请扫描关注我的公众号,回复“bert实战”。

  代码结构如图所示:本项目使用pytorch实现。

[3] 实战前需要掌握的知识

  1、了解pytorch基本操作;

  2、掌握嵌入层预训练词向量的概念;

  3、掌握神经网络模型相关的基本概念;

  4、了解bert模型的相关知识;

[4] 另一个项目:【英文单标签文本分类实战】

  您还可以浏览我的另外一个项目博客:【英文单标签文本分类实战】。

  >=点击此处浏览=<

[5] 进行下一篇实战

  【BERT-多标签文本分类实战】之二——BERT的地位与名词术语解释

以上是关于多标签分类的主要内容,如果未能解决你的问题,请参考以下文章

ML-10多分类及多标签分类算法

多标签分类及多输出分类

多标签文本分类《基于标签语义注意力的多标签文本分类》

多标签文本分类《基于标签语义注意力的多标签文本分类》

文本分类:多标签文本分类与多类文本分类

BERT-多标签文本分类实战之一——实战项目总览