Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记

Posted The Blog of Xiao Wang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记相关的知识,希望对你有一定的参考价值。

 

Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记

arXiv 

 

  摘要:本文提出了一种 DRL 算法进行单目标跟踪,算是单目标跟踪中比较早的应用强化学习算法的一个工作。

   在基于深度学习的方法中,想学习一个较好的 robust spatial and temporal representation for continuous video data 是非常困难的。

   尽管最近的 CNN based tracker 也取得了不错的效果,但是,其性能局限于:

  1. Learning robust tracking features ;

  2. maximizing long-term tracking performance    ---->>> without taking coherency and correlation into account. 

  

  本文的创新点在于:

  1. 提出一种 convolutional recurrent neural network model, 可以学习到单帧图像的空间表示 以及 多帧图像之间的时序上的表示;

    得到的特征可以更好的捕获 temporal information,并且可以直接应用到跟踪问题上;

  2. 我们的框架是端到端的进行训练的 deep RL algorithm,模型的目标是最大化跟踪性能;

  3. 模型完全是 off-line的;

  

  

  Tracking Framework :

  

 

  

 

  本文提出的 Deep RL 算法框架,由三个部分构成:

  1  CNN 特征提取部分;

  2  RNN 历史信息构建部分;

  3  DEEP RL 模块

 

  前两个部分没什么要说的,就是简单的 CNN, LSTM 结构。

  第三个 RL 部分:

  说到底,这个文章是在之前 attention model based Tracker ICLR 2016 年的一个文章基础上做的。

  RL 部分就是没有变换,直接挪过来的。

  状态,是跟踪视频的 frame ;

  动作,是 多变量高斯分布得到的 predicted location;

  奖励,是 scalar reward signal, 定义为:$r_t = -avg(l_t - g_t) - max(l_t - g_t)$ ,lt 是RL单元的输出,gt 是时刻 t 的 gt ;

     avg() 是给定矩阵的 mean value; max() 是计算给定元素的最大值。

  

  训练的目标是最大化奖励信号 R。

  

  学习的目标函数为:

  

  其中,p(z1:T; W) 是可能交互的分布,参数化为 W (the distribution over possible interactions parameterized by W). 

  

  上述函数涉及到 an expectation over high-dimensional interactions,以传统的监督方法来解决是非常困难的。

  利用 RL 领域中的 REINFORCE algorithm 进行近似求解。 

  

 

以上是关于Deep Reinforcement Learning for Visual Object Tracking in Videos 论文笔记的主要内容,如果未能解决你的问题,请参考以下文章

repost: Deep Reinforcement Learning

Deep Reinforcement Learning 深度增强学习资源

Introducing Deep Reinforcement

Deep Reinforcement Learning

lec-1-Deep Reinforcement Learning, Decision Making, and Control

(zhuan) Deep Reinforcement Learning Papers