科研日志:

DAY1. Remaining215.

一.了解BN.Batch_Inception

1⃣️:normalization:增强数据的表达能力,归一化,规范化。Batch:批量数据,每一次优化时的样本数据,例如,一个batch有X={x1,x2,x3...xn}。

2⃣️:基本运算如下:

均值与方差都换做了只依赖当前层数据的输入,这里均值与方差都是网络训练过程中要学习的,只与当前层有关,变成了当前层的一个学习参数,有利于网络的学习而不会降低网络的能力。实现了网络中层与层之间的解耦,允许每一层进行独立学习,有利于提高整个神经网络的学习速度。BN也使得模型对网络中的参数不那么敏感,简化调参过程,使得网络学习更加稳定。

二.论文Temporal Convolutional Networks for Action Segmentation and Detection阅读 

1.temporal segment networks:twostream网络概要:既要抓住视频的形状特征,又要抓住视频的动态特征。在该篇论文中,由两部分的网络,空间网络以及时间网络。空间网络表达了空间特征,输入为rgb图像。时间网络中用来挖掘视频中的动态特征,输入为光流图象。作者提出的思想为:1⃣️连续采样会带来连续帧信息重复,计算量增大,训练过拟合等问题,因此采取稀疏采样(既可以减小计算量,也可以抓住视频中的Long-range信息)。2⃣️在提高准确率方面,有不同模态预训练,正则化,数据增强这些方法,在文中,作者采用了四种模态的输入:帧差图象,光流,warp光流,rgb图像输入。

2.具体细节:

1⃣️temporal convolutional networks:

(1).encoder:

科研日志:_第1张图片

day 2  REMAINING:214

一.了解空洞卷积的概念。

空洞卷积(dilated convolution)

空洞卷积示意图:

科研日志:_第2张图片

引入了扩张率的问题 ,dilation rate,即图(a)到(b)中,有dilation rate=1,从图(a)到图(c),有dilation rate=3.

dilation conv的好处是在不做pooling损失信息的情况下,增大了感受野。

你可能感兴趣的:(科研日志:)