学术论文丨视频识别SlowFast Networks

Posted 人民中科

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了学术论文丨视频识别SlowFast Networks相关的知识,希望对你有一定的参考价值。

内容摘要:本论文提出了SlowFast网络用于视频识别,该模型包含两部分:(1)一个低帧率运行的Slow pathway,用来捕获空间语义信息。(2)一个高帧率运行的Fast pathway,以精细的时间分辨率捕获运动信息。

我们通过减少通道容量把Fast pathway设计的非常轻量级,但依然可以学习有用的时间信息用于视频识别。我们的模型在视频动作分类及检测方面性能强大,而且我们的 SlowFast 概念实现的巨大改进是对这一领域的重要贡献。我们在没有使用任何预训练的情况下在 Kinetics 数据集上实现了 79.0% 的准确率,远远超过此类问题的之前最佳水平。在 AVA 动作检测数据集上,我们实现了 28.3 mAP 的当前最佳水准。代码将会公开。

一.论文内容

1.Introduction

在识别图像I(x,y)的时候通常会对称地symmetrically处理两个空间维度x和y, 自然图像的统计分析能够验证这种操作的合理性:自然图像的统计量是近似于一阶同向性的,即所有方向都是同等可能且位移不变的[41,26]。但是对于视频信号I(x,y,t)呢?运动是方向的时空对应counterpart[2],但是并非所有的时空方向都是一样的。慢速运动比快速运动更有可能发生(实际上大多数情况下我们看到的世界都在特定的时刻处于静止状态)且这一点已经在贝叶斯方法中得到了应用:人们如何看待运动刺激[58]。例如,如果我们看到一个孤立的运动边缘(moving edge),我们会认为它是垂直于自身移动的,即使原则上它也可以具有与自身相切的任意运动分量(光流中的孔径问题)。如果前者倾向于慢速运动,那这种感觉是合理的。

如果并非所有的时空方向都拥有相同的可能性,那么我们就没有理由对称地处理时间和空间(而这正是基于时空卷积的视频识别方法[49,5]所默认的)。相反,我们需要分解框架结构,分别处理空间结构和时间事件,更具体地,让我们在识别场景下来研究。视觉内容的类别空间语义通常都进展的很缓慢。例如,挥手并不会在这个动作进行期间改变「手」的识别结果,某个人始终在「人」这一类别下,即使他/她从走路切换到跑步。因此类别语义(及其色彩、纹理和光线等)的识别可以以比较慢的速度进行刷新。另一方面,执行动作可以比其主体识别变化速度快得多,如鼓掌、挥手、摇头、走路或跳跃。需要使用快速刷新帧(高时间分辨率)来有效建模可能快速变化的运动。

学术论文丨视频识别SlowFast Networks

基于这个直觉,我们提出了一种用于视频识别的双路径SlowFast模型(图1)。一个路径用来捕获图像或稀疏帧所提供的语义信息,它以较低的帧率和较慢的刷新速度运行;另一个路径负责快速捕获运动的变化,它以较快的更新速度和高时间分辨率运行,尽管它的时间分辨率很高,但这个路径仍然非常轻量级,大约占整个计算量的20% .这是因为这个路径具有较少的通道数和较弱的空间信息处理能力,而这些信息可以由第一个路径以较少的冗余来提供。我们把第一个路径和第二个路径分别称为Slow pathway和 Fast pathway,然后这两个分支通过侧向连接进行融合。

这一概念使我们的视频模型设计变得灵活有效,由于Fast pathway轻量级的特性,它不需要执行任何的时间池化,它可以高帧率地执行所有中间层并维持时间保真度;同时,由于Slow pathway的时间速度较低,它可以更加专注于空间域信息和语义信息。通过以不同的时间速率处理原始视频,我们的方法允许这两个分支有它们自己的视频建模知识。 

还有另一种众所周知的视频识别结构two-stream设计[44],但这和我们的结构在概念上是不同的:

(1)Two-Stream方法没有探索不同时间速率的潜力,而这是我们方法的核心观点。

(2)Two-Stream方法的两个streams都使用相同的backbone结构,然而我们的Fast pathway更轻量级。

(3)我们的方法不需要计算光流,因此可以端到端从原始数据学习。

实验发现我们的网络更有效。该方法在一定程度上受到了对灵长类动物视觉系统中视网膜神经元细胞的生物学研究的启发[27,37,8,14,51],虽然这种类比有些粗糙、不成熟。这些研究发现在这些细胞中,大约80%是小细胞(Parvocellular,P-cells),大约15~20%是大细胞(Magnocellular,M-cells),其中M-cells以较高的时间频率运行,并对快速的时间变化做出响应,但是它们对空间细节和颜色不太敏感;P-cells可以提供良好的空间细节和颜色,但时间分辨率较低,对刺激的反应比较缓慢。SlowFast 框架与此类似:(i)我们的模型有两个pathway,分别以low和high时间分辨率工作。(ii)Fast pathway用来捕获快速变化的运动,但只能得到很少的空间细节,类似于M-cells。(iii)Fast pathway是轻量级的,类似于M-cells那样只占很小的比例。

我们希望这些关系能够启发更多的用于视频识别的计算机视觉模型。我们在Kinetics-400,Kinetics-600,Charades和AVA数据集上评估了我们的方法,并在Kinetics动作分类上进行了详尽的消融实验,证明了SlowFast的有效性。SlowFast网络在所有数据集上都达到了新的SOTA,与文献中的先前系统相比有了显著提升。 

2.Related Work

时空滤波器Spatiotemporal filtering。可以将动作Action表述为时空目标,并通过时空中的定向滤波来捕获其特征,如HOG3D[31]和cuboids[10]那样。3D卷积网络[48,49,5]将2D图像模型[32,45,47,24]扩展到了时空域,使用相同的方式同时处理空间和时间维度。还有一些方法侧重于进行长时滤波,并使用带有时间strides的池化[52,13,55,62],或者将卷积分解为单独的2D空间和1D时间滤波器[12,50,61,39]。

除了时空滤波或其可分离版本之外,我们的工作还使用两种不同的时间速率来追求时空建模专业知识的更彻底分离。

视频识别中的光流。另一个经典的研究分支致力于构建基于光流的手工时空特征,其中包括光流直方图[33],运动边界直方图[6]和轨迹53]等,它们在深度学习盛行之前就已经表现出了动作识别方面的竞争性优势。

在深度神经网络的背景下,这种two-stream方法[44]通过将光流作为另一种输入形式来利用光流信息。在文献[12,13,55]中,这种方法已经成为许多竞争性结果的基础。然而,光流是手工设计的特征,其在方法学上并不能令人满意,且这种two-stream方法通常由于光流的影响无法端到端学习。

3.SlowFast Network

SlowFast网络算是一个以两种不同的帧率运行的单流结构,但我们使用pathways的概念来反应该网络与M-cell、P-cell的类比。我们的SlowFast通用结构包含使用横向连接融合的Slow pathway(3.1节)和Fast pathway(3.2节)两部分,如图1所示。

3.1 Slow pathway

Slow pathway可以是任意一个将视频片段作为时空立方体输入的卷积模型(例如[12,49,5,56])。我们的Slow pathway的关键理念是:输入视频帧的时间跨度stride τ很大,也就是说每τ帧才处理一帧。我们研究的典型τ值为16,也就是说对于30fps的视频,slow pathway每秒大约采样处理两帧。将slow pathway采样处理的帧数表示为T,那么原始视频片段的长度就是T×τ帧。

3.2 Fast pathway

Fast pathway是一个具有以下特性的另一个卷积模型(与Slow pathway平行)。

High frame rate高帧率。我们Fast pathway的目标是在时间维度上有一个很好的表示,Fast分支的时间跨度是τ/α(其中α是快慢分支的帧率比,α >1),显然Fast分支的时间跨度stride比Slow分支要小。这两个分支在相同的原始视频片段上执行,所以Fast分支处理的帧数就是αT,比Slow分支密集了α倍,我们实验中的典型值为α=8.

α的存在是SlowFast概念的关键所在(图1的时间轴),它明确表明了两个路径以不同的时间速度工作,从而驱动了两个子网(两个路径的实例化网络)的专业知识expertise。

High temporal resolution features。我们的Fast路径不仅输入时间分辨率很高,而且在整个网络层级中都追求高时间分辨率特征。在我们的实例中,在整个Fast路径里我们都没有使用任何的时间下采样层(没用时间池化temporal pooling也没有时间跨度的卷积time-strided convolutions),直到最后的分类之前才使用了全局的池化层。这样,我们的特征张量在时间维度上就能始终保持αT帧,尽可能地保持时间保真度。

Low channel capacity。我们的快速路径可以使用很低的通道数来实现SlowFast模型的良好精度(这也是和现存其他模型的一个区别),这使得网络可以轻量级。简言之,我们的Fast路径是一个与Slow路径类似的卷积网络,但其通道数是Slow路径的β倍(β<1),我们实验中的典型值为β=1/8。注意一个普通层的计算量(FLOPs)往往是通道缩放率的平方,这就是Fast路径比Slow路径计算效率高的多的原因。在我们的实例中,Fast路径大概占总计算量的20%左右。有趣的是,第一节中提到过动物视觉系统中的15~20%细胞是M-cells(对快速运动很敏感,但是对颜色和空间细节不敏感的那一类细胞)。

低通道数也可以解释为具有较弱的空间语义表达能力,从技术上讲,我们的Fast路径在空间维度上没有特殊的处理,因此由于通道数的减少,其空间建模能力应该低于Slow路径。我们模型的良好结果表明Fast路径削弱其空间建模能力的同时增强其时间建模能力,这是一个理想的权衡tradeoff。

受到这种解释的启发,我们探索了Fast路径中削弱空间容量的不同方法,包括减少输入的空间分辨率、移除彩色信息等。实验结果显示,这些版本也可以取得良好的准确性,这表明了通过削弱空间容量来构建轻量级的Fast路径是有效的。

3.3 Lateral connections

两个路径的信息是学习后才融合在一起的,所以一条路径并不关心另一条路径学习了什么,我们使用横向连接(在two-stream中融合RGB和光流时用过[12,13])来实现这一融合操作。在图像的目标检测任务中,横向连接被广泛应用于融合多尺度空间分辨率特征中。

类似于[12,35],我们在每个阶段“stage”的两个路径之间都附加一条横向连接,特别的,如果是ResNets,这些横向连接紧跟在pool1,res2,res3和res4之后。这两个路径的时间维度不同,所以横向连接会先进行转换来匹配它们(细节见3.4节)。我们使用单向连接来将Fast路径的特征融合到Slow路径中(做了双向连接实验,效果类似)。

最后,对两个路径的输出进行全局平均池化global average pooling,再将两个池化后的特征向量拼接在一起输入到全连接分类器中。

3.4 Instantiations实例化

我们的SlowFast思想是通用的,可以使用不同的backbone来具体实现,这一小节描述一下我们对该网络结构的一个具体实例。

表1指定了一个SlowFast模型的示例子,我们用T×S²来表示时空尺寸,其中T是时间长度,S是方形空间裁剪的宽高,接下来描述具体细节。

学术论文丨视频识别SlowFast Networks

Slow pathway。表1中的Slow 路径是一个从[12]修改得到的时域strided 3D ResNet,它的输入帧数为T=4帧(从原始裁剪的64帧中τ=16采样得到的),在这个实例化中我们不采用时域下采样(因为当输入stride较大时,时域下采样会影响效果)。

和典型的C3D/I3D模型不同的是,我们只在res4进而res5的时候使用非退化non-degenerate的时域卷积(时域卷积核尺寸>1,表1中下划线部分);而该路径中从conv1到res3的所有卷积核基本上都是2D卷积。之所以这么做是由实验导向的,我们在实验中发现如果在前几层就使用时域卷积的话会降低精度。我们认为这可能是因为当物体移动速度很快而我们的时域跨度又很大时,除非空间感受野足够大(在后面的层中空间感受野就很大),否则在时间感受野中这些帧几乎没有什么联系。

Fast pathway。表1的这个例子中,Fast路径的α=8(时间分辨率是Slow的8倍,表中绿色),β=1/8(通道数是Slow的1/8,表中橙色)。

Fast路径在每个block中都有非退化的时间卷积,这是因为我们发现这个路径能够保持较好的时间分辨率来捕获详细的运动信息,此外,Fast路径没有专门设计时域下采样层。

Lateral connections。我们的横向连接将Fast的特征融合到Slow路径,不过在融合前需要进行特征尺寸的转换匹配(只能有一个维度尺寸不同)。将Slow路径的特征形状定义为{T,S²,C},Fast路径的特征形状为{αT,S²,βC}。在横向连接中我们尝试了如下的转换方法:

(i)Time-to-Channel:我们把Fast的特征reshape成{T,S²,αβC},也就是把所有帧的特征全部放到一帧的通道上。

(ii)Time-strided sampling:我们直接简单在Fast特征的时间维度上进行采样(每α帧采样1帧),即将Fast特征采样成{T,S²,βC}。

(iii)Time-strided convolution:我们使用3D卷积(卷积核5×1²,stride=α,输出通道为2βC)对Fast特征进行卷积,得到形状为{T,S²,2βC}的特征。

最后,Fast路径横向连接的输出被融合到Slow路径中(求和或者拼接)。

4.Experiments:Action Classification

我们使用标准的评估方法在4个视频识别数据集上评估了我们的方法,对于本部分的动作分类实验,我们考虑了被广泛使用的Kinetics-400,最新的Kinetics-600和Charades;对于第5节中的行为检测实验,我们使用具有挑战性的AVA数据集。

训练。我们在 Kinetcis上训练的模型没有使用ImageNet或其他数据集做预训练(from scratch),使用[19]中的同步SGD进行训练,详见附录。

在时域上,我们从完整的视频上随机采样一个片段clip(T×τ帧,这里论文是αT×τ帧,感觉应该是笔误),然后输入到Slow路径和Fast路径的分别是T帧和αT帧;在空域上,我们对原视频或者其水平翻转进行缩放(缩放规则是:随机地从[356,320]中选择一个值作为短边的长度,按比例缩放),然后随机裁剪出224×224大小。

推理。按照惯例,我们会沿着视频的时间轴均匀采样10个片段clips,对于每个clip,我们先按照短边256像素进行比例缩放,然后裁剪3个256×256大小的区域作为输入进行推理,最后我们将3个softmax分数的平均值作为预测结果。

由于现有论文在推理时的时空裁剪策略不同,我们在与这些论文比较推理时间时 公布了每个时空“视图”(一种时域clip,空域crop策略即为一种时空视图)下的FLOPs。因为在我们的案例中,推理时的空间尺寸为256²(而不是训练时的224²),时域上一共有10个clips,且每个clip都有3个空间crops,所以一共有30个时空视图。

数据集。Kinetics-400:约240k训练视频和20k验证集视频,400个人体动作类别;Kinetics-600:约392k训练视频,30k验证视频,600个类别;我们给出了top-1和top-5类别准确度,并给出单个空域中心裁剪clip的计算代价FLOPs;Charades:约9.8k训练视频,1.8k验证视频,157个类别(多标签类别),activities的时间跨度比较长,平均30s,给出了mAP来度量效果。

4.1 Main Results

Kinetics-400。表2比较了我们的模型和SOTA方法的结果,我们的SlowFast模型分别使用了不同的输入采样量(T×τ)和不同的backbones(Res50/101[24], Nonlocal[56])。

学术论文丨视频识别SlowFast Networks

如图2所示,对于所有变体,Fast pathway都能以相对较低的成本持续改善Slow路径的性能。

学术论文丨视频识别SlowFast Networks

Kinetics-600。这个数据集是一个相对比较新的,现有的结果也不够好的数据集,所以我们的目标主要是提供一些可供将来参考的结果,如表3所示。

学术论文丨视频识别SlowFast Networks

Charades。这个数据集的动作持续时间更长,表4展示了我们的SlowFast在该数据集上的结果。

学术论文丨视频识别SlowFast Networks

二.论文总结

1.核心思想

视频行为识别需要从视频中提取鲁邦的外观(空间语义)和运动特征来进行行为识别,所谓SlowFast是指采用Slow和Fast两种采样率的path(输入两个path的是视频采样后的帧)来并行处理视频,Slow path以较低的采样率来处理输入视频(2D卷积+3D卷积),提取随时间变化较慢的外观特征,为了提取鲁邦的外观特征,卷积核的空间通道数较大;Fast path以较高的采样率来处理输入视频(3D卷积),提取随时间变化较快的运动特征,为了降低该通道的复杂度,卷积核的空间通道数较小;然后通过横向连接对两个path的特征进行融合,进行行为识别。

作者文中提了一个“可能比较粗糙且为时尚早的类比”,在灵长类动物的视网膜神经细胞中,有80%的细胞以较低的速率工作,它们对视觉运动变化不敏感,但是可以提供良好的空间和颜色细节(这类比为Slow Path中的卷积核来提取外观特征,总参数量占两个通道总参数的80%左右);剩余20%的细胞以较高速率工作,能够敏感地捕捉运动变化(这类比为Fast Path的卷积核来提取运动特征,总参数占20%左右)。

2.模型结构

学术论文丨视频识别SlowFast Networks

SlowFast模型结构图如上图所示,其主要的工作流程大致如下所示:

step1:用快慢两种速率采样输入视频

step2:采样后的视频帧对应输入到Slow/Fast两个分路

step3:Slow分路使用ResNet 2D Conv + 3D Conv提取视频空间语义特征,size {T,S²,C}

step3:同时Fast分支使用ResNet 3D Conv提取视频时域运动特征,size{αT,S²,βC},其中α>1,β<1

step4:横向连接统一两个分路的特征

step5:Softmax进行分类

详细的流程可以看原文和代码~~~~~~~

3.实验

本文实验相当丰富,还是值得好好看看,学学大佬都是怎么做实验的,实验结果主要是下边几部分:

(1)Kinetics-400数据集SOTA

(2)Kinetics-600新数据集提供了个baseline结果

(3)Fast分支能以很小的代价提高Slow-Only的精度

(4)AVA行为检测

4.与Two Stream、C3D的区别

(1)与Two Stream方法的区别

对行为识别有一定了解的小伙伴应该知道Two Stream方法采用RGB + Optical flow两个通路来分别提取视频的空间语义特征和运动特征进行行为识别,而本文的SlowFast也是两个通路提取两方面特征进行识别,二者的主要区别有如下几个部分:

a:SlowFast更强调两个分路不同的采样和处理速率,这也是SlowFast的核心思想

b:Two Stream两个分路的backbone是相同的,而SlowFast中的Fast分支更轻量级

c:双流是手工设计的特征,无法端到端学习,而SlowFast可以端到端学习两个分路的所有参数

(2)与C3D系列方法的区别

另一种广泛的行为识别方法是C3D及其改进,C3D采用3D卷积同时提取空域和时域特征,SlowFast中虽然也用到了3D卷积,但和C3D行为识别模型是有区别的:

a:C3D模型将2D卷积扩展到时空域,同时处理空域和时域的信息(默认时域和空域是平等的、对称的),而SlowFast采用和TwoStream类似的想法将空域和时域的处理拆分开,这更符合时域和空域特征的关系(二者不应该像一幅图的x,y那样对称处理)

b:SlowFast中用到了3D卷积,但又不太相同。Slow通路前几层使用2D卷积,后两层才用3D卷积(实验发现比全用3D卷积效果更好);Fast通路每一层都用的是3D卷积,但是各层维持时域维度大小不变,尽可能地保留时域信息(而C3D中是越深的层时域维度越小)。 

三.资源下载

1.代码下载

下载开源github代码:https://github.com/open-mmlab/mmaction2,解压

下载UCF101数据集:https://www.crcv.ucf.edu/data/UCF101.php下载如下(红框部分即可)

学术论文丨视频识别SlowFast Networks

下载下来之后本人摆放如下(没有的目录请自行创建)

学术论文丨视频识别SlowFast Networks

进入到第二个红箭头标识的Dataset/ucf101目录,请自行解压两个文件,获得目录如下:

学术论文丨视频识别SlowFast Networks

重命名UCF-101为videos,重命名ucfTrainTestlist为annotations。本人显示如下:

2.论文下载

论文下载:https://arxiv.org/pdf/1812.03982.pdf

作者团队:FAIR(何恺明…)ICCV2019,2019 年 CVPR ActivityNet Challenge Winner

分类:计算机视觉–视频行为识别–两分路C3D
项目地址:https://github.com/facebookresearch/SlowFast

   https://github.com/open-mmlab/mmaction2


以上是关于学术论文丨视频识别SlowFast Networks的主要内容,如果未能解决你的问题,请参考以下文章

跟我读论文丨Multi-Model Text Recognition Network

论文阅读 Video Transformer Network

论文阅读 Video Transformer Network

(ICCV-2019)用于视频识别的 SlowFast 网络

视频实时行为检测——基于yolov5+deepsort+slowfast算法

视频实时行为检测——基于yolov5+deepsort+slowfast算法