Focal Loss for Dense Object Detection 的译读笔记

Posted songyuc

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Focal Loss for Dense Object Detection 的译读笔记相关的知识,希望对你有一定的参考价值。

Focal Loss for Dense Object Detection

摘要

  目前(注:该论文是在2018年发表于arxiv),精度最高的检测器是基于RCNN推广的两阶段方法,其中分类器会对一组稀疏的候选目标位置进行处理。相对而言,一阶段检测器对可能的目标位置进行常规密集采样并处理,于是具有更快更简单的潜力,但目前来说其精度落后于两阶检测器。本文研究了出现这种情况的原因,发现在密集检测器训练中极度的前背景类别不均衡是主要原因。本文提出重构标准交叉熵损失使得降低分配给易分类样本的损失值。本文创新的 Focal Loss 将训练聚焦于一组稀疏的难样本上,并防止大量简单的负样本在训练期间混淆了检测器。为了评估本文损失函数的有效性,本文设计和训练了一种简单的密集检测器称为RetinaNet。本文的结果显示当使用 Focal Loss 训练时,RetinaNet在同等速度下精度可以超过之前所有的先进的 two-stage 检测器。代码位于https://github.com/facebookresearch/Detectron

1. 引言

  目前的SOTA目标检测器都是基于 two-stage 和 proposal-driven 的框架。正如RCC框架[11_RCNN]中提出的,第一阶段生成一组稀疏后弦目标位置,然后第二阶段使用CNN将每个候选位置分类为前景或背景类别。通过一系列改进[10_FastRCNN, 28_FasterRCNN, 20_AFPN, 14_Mask R-CNN],这种两阶段框架在富有挑战性的COCO基准测试[21_COCO]上始终保持最高的精度。

以上是关于Focal Loss for Dense Object Detection 的译读笔记的主要内容,如果未能解决你的问题,请参考以下文章

[论文理解]Focal Loss for Dense Object Detection(Retina Net)

Focal Loss for Dense Object Detection 的译读笔记

focal loss for multi-class classification

Keras 自定义loss函数 focal loss + triplet loss

交叉熵损失函数和focal loss

focal loss 之 pytorch 实现