2014-nips-Recurrent Models of Visual Attention论文笔记

1. 任务

进行图像识别

2. 网络

2014-nips-Recurrent Models of Visual Attention论文笔记_第1张图片 

图A

3. 网络中的细节

3.1 名词解释

l_{t-1}为location。

gt为glimpse vector。

ht-1是internal state。

at是action,有两个作用:通过感知控制下一时刻lt来决定如何布置感知器;一个可能会影响环境状态的环境的作at。

3.2 glimpse vector

2014-nips-Recurrent Models of Visual Attention论文笔记_第2张图片         图一

2014-nips-Recurrent Models of Visual Attention论文笔记_第3张图片  图二

3.2.1 图一:glimpse sensor

是从image 的location l_{t-1}周围提取出了p(x_{t},l_{t-1}).

在l附近分辨率高,离l 很远的地方分辨率低,所以比原始图像的维度更低。

3.2.2 图二: glimpse network——f_{g}(\theta _{g})

输入为image和location,进入glimpse sensor,得到p(x_{t},l_{t-1})。然后进入一个linear layer(\theta _{g}^{0})。

 l_{t-1}直接输入一个linear layer(\theta _{g}^{1});将\theta _{g}^{1}\theta _{g}^{0}一起输入进linear layer \theta _{g}^{2},得到g_{t}.

4.网络训练:

如图A所示,首先将location和image输入进f_{g}(\theta _{g}),得到g_{t}g_{t}输入进linear layer 和 rectifier nonlinearity得到

ht-1为hidden layer。

g_{t}和ht-1一起输入进f_{h}(\theta _{h}),在输入到linear layer得到ht。

ht输入到f_{a}(\theta _{a})得到at。

ht输入到f_{l}(\theta _{l})得到l_{t}

5. loss function

其中,,policy是选择at。

6. result

2014-nips-Recurrent Models of Visual Attention论文笔记_第4张图片

2014-nips-Recurrent Models of Visual Attention论文笔记_第5张图片

 

 

 

 

 

 

 

 

 

 

 

 

你可能感兴趣的:(machine,learning,reinforcement,learning,多标签图像识别)