第43篇CLIP:从自然语言监督中学习可迁移的视觉模型

Posted AI浩

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了第43篇CLIP:从自然语言监督中学习可迁移的视觉模型相关的知识,希望对你有一定的参考价值。

摘要

最先进的计算机视觉系统被训练来预测一组固定的预定对象类别。这种受限制的监督形式限制了它们的通用性和可用性,因为需要额外的标记数据来指定任何其他视觉概念。直接从有关图像的原始文本中学习是一种很有前途的替代方案,它利用了更广泛的监督来源。我们证明了预测哪个标题与哪个图像搭配的简单预训练任务是一种有效且可扩展的方式,可以在从互联网收集的 4 亿(图像,文本)对的数据集上从头开始学习 SOTA 图像表示。在预训练之后,使用自然语言来参考学习的视觉概念(或描述新的概念),使模型能够零样本转移到下游任务。我们通过对 30 多个不同的现有计算机视觉数据集进行基准测试来研究这种方法的性能,这些数据集涵盖 OCR、视频中的动作识别、地理定位和许多类型的细粒度对象分类等任务。该模型非常重要地转移到大多数任务,并且通常与完全监督的基线相比具有竞争力,而无需任何数据集特定的训练。例如,我们在 ImageNet 零样本上匹配原始 ResNet-50 的准确性,而无需使用它所训练的 128 万个训练示例中的任何一个。我们在 https://github.com/OpenAI/CLIP 上发布我们的代码和预训练模型权重。

一、 简介和激励工作

在过去几年中,直接从原始文本中学习的预训练方法彻底改变了 NLP(Dai & Le,2015;Peters 等人,2018;Howard & Ruder,2018;Radford 等人,2018;Devlin 等人, 2018 年;Raff

以上是关于第43篇CLIP:从自然语言监督中学习可迁移的视觉模型的主要内容,如果未能解决你的问题,请参考以下文章

CLIP__视频笔记

迁移学习全面概述:从基本概念到相关研究

第21篇屏蔽自编码器是可扩展的视觉学习器

视觉-语言表征学习新进展:提词优化器「琥珀」带你用好CLIP

Mixed Supervised Object Detection with Robust Objectness Transfer讲解

R语言学习-KNN临近算法