论文解读:From Pixels to Objects: Cubic Visual Attention for Visual Question Answering

Posted yealxxy

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文解读:From Pixels to Objects: Cubic Visual Attention for Visual Question Answering相关的知识,希望对你有一定的参考价值。

这是关于VQA问题的第十一篇系列文章。本篇文章将介绍论文:主要思想;模型方法;主要贡献。有兴趣可以查看原文:From Pixels to Objects: Cubic Visual Attention for Visual Question Answering

1,主要思想

作者提出一般的Spatial visual attention只是选出了最关注的视觉对象,在通道上采用的相同的权重,这不符合attention的思路。基于此,作者提出cubic visual attention,在通道和空间上同时进行选择重要的。具体的区别见下图:

2,模型结构

  • 首先对图像进行目标识别,提取视觉特征;同时对问题采用GRU编码
  • 进行channel-wise attention
  • 进行spatial attention
  • 预测输出

a.Input Representations

  • 对图像采用Faster R-CNN模型,提取k个主要的对象,并特权特征,每个对象特征维度D.
  • Encoding Question Features:对词向量采用GRU进行编码。

b.Channel Attention(通道)

cnn的通道代表了不同粒度的特征,低维度的边缘特征和高粒度的语义特征。这篇论文对last conv feature map进行池化,这样每个通道代表着对象的属性特征。也就是说通道上的attention选择了视觉对象重要的语义属性。过程如下:

  • 先对视觉特征V进行reshape:
  • 对通道进行池化:
  • attention权重计算部分:

    可以简写成:
  • attention结果:

c.Object Region-based Spatial Attention

就是对区域对象进行attention,选择重要的对象。

  • 权重计算:

    可以简写成:
  • attention结果:

d.预测输出

e.A Variant of CVA

  • 上面的步骤可以总结为:
  • 为了对比,可以变化为:

3, 主要贡献

  • 提出了基于cubic visual attention,在通道和区域上进行关注。

以上是关于论文解读:From Pixels to Objects: Cubic Visual Attention for Visual Question Answering的主要内容,如果未能解决你的问题,请参考以下文章

实训周报2--RCNN论文解读

实训周报2--RCNN论文解读

A Unified Deep Model of Learning from both Data and Queries for Cardinality Estimation 论文解读(SIGMOD 2

论文解读: Learning to AutoFocus

论文解读: Learning to AutoFocus

论文解读:Tips and Tricks for Visual Question Answering: Learnings from the 2017 Challenge