多标签分类
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了多标签分类相关的知识,希望对你有一定的参考价值。
参考技术A 参考文章:<<YOLO9000: Better, Faster, Stronger>>
<<YOLOv3: An Incremental Improvement>>
<<Large-Scale Object Detection in the Wild from Imbalanced Multi-Labels>>
多标签,根据标签之间的关系,有以下几种情况:
但是在多标签时,softmax会引入各个类别之间的竞争。
在YOLOv2中,提出可以联合训练分类和检测数据,但是分类数据集往往类别较多。建立一个表示类别层次关系的WordTree,“同级”类别之间做softmax。
在YOLOv3中,使用logistic对于每一类进行2分类。每个类别使用二元交叉熵损失。
举例:在训练YOLOv3时,如果一个目标x有2个类别0和1,在给真值标签时,会给2条——(x, y=0)和(x, y=1),这样在训练时,损失函数如下,其中 是one-hot编码的向量,在索引为c的地方为1.在最小化损失函数的过程中,对于 ,p=q。这样在进行预测时,优化的目标是 ,可能导致在预测时,类别的置信度会接近0.5,而不是1。
论文<<Large-Scale Object Detection in the Wild from Imbalanced Multi-Labels>>提出concurrent-softmax
BERT-多标签文本分类实战之一——实战项目总览
[1] 总览
【BERT-多标签文本分类实战】系列共七篇文章:
【BERT-多标签文本分类实战】之一——实战项目总览
【BERT-多标签文本分类实战】之二——BERT的地位与名词术语解释
【BERT-多标签文本分类实战】之三——多标签文本分类的方向与常用数据集介绍
【BERT-多标签文本分类实战】之四——数据集预处理
【BERT-多标签文本分类实战】之五——BERT模型库的挑选与Transformers
【BERT-多标签文本分类实战】之六——数据加载与模型代码
【BERT-多标签文本分类实战】之七——训练-评估-测试与运行主程序
目前来看,如果方向是文本分类的话,英文文本分类、中文文本分类都需要掌握。
很多数据集都是英文的,比如多标签文本数据集、层次结构标签文本数据集,想在方向上更进一步的话,必须得学会处理英文文本。
而随着近些年的发展,bert算是表现超级好的几种模型之一,所以有必要跑一跑bert相关的模型。
[2] 代码获取地址
如果需要本组件的源代码,请扫描关注我的公众号,回复“bert实战”。
代码结构如图所示:本项目使用pytorch实现。
[3] 实战前需要掌握的知识
1、了解pytorch基本操作;
2、掌握嵌入层、预训练词向量的概念;
3、掌握神经网络模型相关的基本概念;
4、了解bert模型的相关知识;
[4] 另一个项目:【英文单标签文本分类实战】
您还可以浏览我的另外一个项目博客:【英文单标签文本分类实战】。
[5] 进行下一篇实战
【BERT-多标签文本分类实战】之二——BERT的地位与名词术语解释
以上是关于多标签分类的主要内容,如果未能解决你的问题,请参考以下文章