Learning Policies for Adaptive Tracking with Deep Feature Cascades

Learning Policies for Adaptive Tracking with Deep Feature Cascades

ICCV17 shotlight
作者:Chen Huang, CMU postdoctor,导师 Deva Ramanan

summary

文章主要贡献在于速度与精度的权衡(AUC 0.638,fps 23),通过强化学习策略,来控制网络的深度,使得精度和速度最佳。目前的跟踪算法大多数可以分为两类:基于lower feature的CF类方法,这类方法速度极快,到精度不好;基于deep learning的网络方法,这类方法精度高,但速度慢,无法做到实时。本文构建了一种深度特征 cascades(瀑布?),然后在每一层进行目标检测,但检测结果符合要求时(用强化Q-learning做决策),则停止检测,输出结果;否则进入下一层继续搜索检测目标。
Learning Policies for Adaptive Tracking with Deep Feature Cascades_第1张图片

method

object location

对于 cheap features,文章用的是dcf,对于卷积特征(c1-c5),文章用的是自相关函数:

f(x,z)=\varphi (x)*\varphi(z)+V\mathbb{I} 

Learning Policies with Reinforcement Learning

action 文章action只定义了尺度的变化,没有涉及平移。action定义见上图右端。
station station为一tuple(F,h),F为平均score map,h为前四个状态的one-hotvector。
reward reward定义为

策略学习

文章用Q-leaning进行策略学习。

Implementation details

用类似SiamFC中的AlexNet进行特征提取,然后在ImageNet中训练整个网络,包括q-leaning方法。网络只进行off-line训练(因为没有全连接层所以不用on-line训练?)

你可能感兴趣的:(tracking,computer,vision)