深度学习

  1. 神经网络中的Epoch,Iteration,Batchsize

  2. 反向传播

  3. CNN本质和优势
    局部卷积(提取局部特征)
    权值共享(降低训练难度)
    Pooling(降维,将低层次组合为高层次的特征)
    多层次结构

  4. 鞍点的定义和特点
    若某个一阶导数为0的点在至少一个方向上的二阶导数小于0,那它就是鞍点
    **最优点和鞍点的区别:**在于其在各个维度是否都是最低点,只要某个一阶导数为0的点在某个维度上是最高点而不是最低点,那它就是鞍点。

  5. 神经网络数据处理方法有哪些
    中心化/零均值(zero-center):每一个数据减去每一维数据的平均值
    归一化(Normalization):每一个数据除以每一维的标准差

  6. 神经网络怎么进行参数初始化
    全置为0,前向传播结果为0,反向同样为0,无法更新。
    置为很小的数,W=0.01*np.random.rand(D,H),这种初始化方法在神经网络的层数很少时可以使用,层数多了就会出现问题,最后参数全部为0,首先在前向传播过程中输出为h(wx+b)因为w很小,所以输出很小,同时反向传播过程中梯度的变化也很小,那么参数的改变也很小,在不断的正向传播乘很小的数,反向传播又几乎不变的情况下,最后w会越来越小,趋近于0,出现梯度弥散现象。
    Xavier初始化
    He初始化

  7. 为什么weights初始化要非对称?
    如果对称初始化,假设weights全是1,则对于每个神经元的输出结果相同;经历过BP反向传播后,weights的各个位置得到的是相同的更新。因此无论网络训练多少轮,对于每一层中的各个神经元,weights都是相同的,无法学习(提取)到不同的特征。

  8. 为什么weights初始化不能全为0?

  9. 为什么初始化值不能太大?

  10. 对于sigmoid、tanh激活函数,初始化值太大,使得流入激活函数的值过大,造成饱和现象,当反相传播时,会使得梯度极小,导致梯度弥散。(ReLU函数不受此影响)

  11. 为什么初始化值不能太小?
    初始化太小时,经过多层网络,输出值变得极小,在反向传播时也会使得梯度极小,导致梯度弥散。(ReLU函数也受此影响!)

  12. Xavier初始化
    Xavier初始化的基本思想是,若对于一层网络的输出和输出可以保持正态分布且方差相近,这样就可以避免输出趋向于0,从而避免梯度弥散情况。

  13. He初始化
    He初始化基本思想是,当使用ReLU做为激活函数时,Xavier的效果不好,原因在于,当RelU的输入小于0时,其输出为0,相当于该神经元被关闭了,影响了输出的分布模式。

因此He初始化,在Xavier的基础上,假设每层网络有一半的神经元被关闭,于是其分布的方差也会变小。经过验证发现当对初始化值缩小一半时效果最好,故He初始化可以认为是Xavier初始/2的结果。

  1. 卷积

  2. 卷积的反向传播

  3. CNN模型所需的 FLOPs和参数量 怎么计算
    乘加算1次,有bias则加1
    深度学习_第1张图片
    深度学习_第2张图片

  4. 池化 :平均池化、最大池化

  5. 池化层的反向传播
    mean pooling的前向传播就是把一个patch中的值求取平均来做pooling,那么反向传播的过程也就是把某个元素的梯度等分为n份分配给前一层,这样就保证池化前后的梯度(残差)之和保持不变,还是比较理解的,图示如下
    深度学习_第3张图片
    max pooling也要满足梯度之和不变的原则,max pooling的前向传播是把patch中最大的值传递给后一层,而其他像素的值直接被舍弃掉。那么反向传播也就是把梯度直接传给前一层某一个像素,而其他像素不接受梯度,也就是为0。所以max pooling操作和mean pooling操作不同点在于需要记录下池化操作时到底哪个像素的值是最大,也就是max id
    深度学习_第4张图片

  6. 感受野的计算
    1)第一层卷积层的输出特征图像素的感受野的大小等于滤波器的大小
    2)深层卷积层的感受野大小和它之前所有层的滤波器大小和步长有关系
    3)计算感受野大小时,忽略了图像边缘的影响,即不考虑padding的大小
    strides是之前所有层stride的乘积。
    即strides(i) = stride(1) * stride(2) * …* stride(i-1)
    RF = 1 #待计算的feature map上的感受野大小
    for layer in (top layer To down layer):
      RF = ((RF -1)
    stride) + fsize
    *

  7. 权重初始化方法

  8. 正则化方法
    参数范数惩罚
    L2参数正则化
    L1参数正则化
    L1正则化和L2正则化的区别
    数据集增强
    噪音的鲁棒性
    向输出目标注入噪声
    半监督学习
    多任务学习
    提前终止
    参数绑定和共享
    稀疏表示
    集成化方法
    百度百科

  9. BN原理
    原理

  10. 手写BN

  11. BN有哪些参数

  12. BN在训练和测试时有哪些区别

  13. Weight Normalization(WN)

  14. Layer Normalization (LN)

  15. Instance Normalization (IN)

  16. Group Normalization (GN)

  17. BN,LN,WN,IN和GN的区别
    上述总结

  18. 优化算法:随机梯度下降法(SGD,Mini-Batch,动量(Monmentum),Nesterov动量,AdaGrad,AdaDelta,RMSProp,Adam,Nadam,AMSGrad,AdaBound
    链接

  19. 梯度下降法

  20. mini-batch梯度下降法

  21. 随机梯度下降法(SGD)

  22. SGD每步做什么,为什么能online learning?

  23. 动量梯度下降法(Momentum)

  24. RMSProp

  25. AdaGrad

  26. Adam

  27. Adam优化器的迭代公式

  28. 激活函数总结
    26种激活函数可视化总结

  29. Sigmoid用作激活函数时,分类为什么要用交叉熵损失,而不用均方损失?便于化简,参考链接

  30. tanh

  31. ReLU激活函数为什么比sigmoid和tanh好?

  32. ReLU有哪些变体?

  33. Dropout原理?
    参考链接

  34. Dropout如何实现?参考链接

  35. Dropout在训练和测试时有哪些区别?参考链接

  36. 损失函数(Loss):

  37. Cross Entropy Loss (CE):参考

  38. Hinge Loss:参考

  39. Focal Loss:参考链接

  40. 11 卷积有什么作用?
    1)、降维( dimension reductionality )。比如,一张度500 * 500且厚度depth为100 的图片在20个filter上做1
    1的卷积,那么结果的大小为问50050020。
    2)、加入非线性。卷积层之后经过答激励层,1*1的卷积在前一层内的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力容;
    3)、跨通道链接

  41. AlexNet

  42. VGG:VGG16 VGG19
    VGG 是Oxford的Visual Geometry Group的组提出的(大家应该能看出VGG名字的由来了)。该网络是在ILSVRC 2014上的相关工作,主要工作是证明了增加网络的深度能够在一定程度上影响网络最终的性能。VGG有两种结构,分别是VGG16和VGG19,两者并没有本质上的区别,只是网络深度不一样。

VGG16相比AlexNet的一个改进是采用连续的几个3x3的卷积核代替AlexNet中的较大卷积核(11x11,7x7,5x5)。对于给定的感受野(与输出有关的输入图片的局部大小),采用堆积的小卷积核是优于采用大的卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。

简单来说,在VGG中,使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5*5卷积核,这样做的主要目的是在保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了神经网络的效果。

比如,3个步长为1的3x3卷积核的一层层叠加作用可看成一个大小为7的感受野(其实就表示3个3x3连续卷积相当于一个7x7卷积),其参数总量为 3x(9xC^2) ,如果直接使用7x7卷积核,其参数总量为 49xC^2 ,这里 C 指的是输入和输出的通道数。很明显,27xC2小于49xC2,即减少了参数;而且3x3卷积核有利于更好地保持图像性质。

这里解释一下为什么使用2个3x3卷积核可以来代替5*5卷积核:

5x5卷积看做一个小的全连接网络在5x5区域滑动,我们可以先用一个3x3的卷积滤波器卷积,然后再用一个全连接层连接这个3x3卷积输出,这个全连接层我们也可以看做一个3x3卷积层。这样我们就可以用两个3x3卷积级联(叠加)起来代替一个 5x5卷积。
深度学习_第5张图片
VGG16包含了16个隐藏层(13个卷积层和3个全连接层)
VGG19包含了19个隐藏层(16个卷积层和3个全连接层)

  1. VGG优缺点
    1)VGGNet的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸(3x3)和最大池化尺寸(2x2)。
    2)几个小滤波器(3x3)卷积层的组合比一个大滤波器(5x5或7x7)卷积层好
    3)验证了通过不断加深网络结构可以提升性能。

缺点
1)VGG耗费更多计算资源,并且使用了更多的参数(这里不是3x3卷积的锅),导致更多的内存占用(140M)。其中绝大多数的参数都是来自于第一个全连接层。VGG可是有3个全连接层啊!
PS:有的文章称:发现这些全连接层即使被去除,对于性能也没有什么影响,这样就显著降低了参数数量。
注:很多pretrained的方法就是使用VGG的model(主要是16和19),VGG相对其他的方法,参数空间很大,最终的model有500多m,AlexNet只有200m,GoogLeNet更少,所以train一个vgg模型通常要花费更长的时间,所幸有公开的pretrained model让我们很方便的使用。
关于感受野:
假设你一层一层地重叠了3个3x3的卷积层(层与层之间有非线性激活函数)。在这个排列下,第一个卷积层中的每个神经元都对输入数据体有一个3x3的视野。

  1. ResNet:
    随着网络的加深,出现了训练集准确率下降的现象,我们可以确定这不是由于Overfit过拟合造成的(过拟合的情况训练集应该准确率很高);所以作者针对这个问题提出了一种全新的网络,叫深度残差网络,它允许网络尽可能的加深,其中引入了全新的结构如图1; 这里问大家一个问题

残差指的是什么?

其中ResNet提出了两种mapping:一种是identity mapping,指的就是图1中”弯弯的曲线”,另一种residual mapping,指的就是除了”弯弯的曲线“那部分,所以最后的输出是 y=F(x)+x identity mapping顾名思义,就是指本身,也就是公式中的x,而residual mapping指的是“差”,也就是y−x,所以残差指的就是F(x)部分。

为什么ResNet可以解决“随着网络加深,准确率不下降”的问题?

理论上,对于“随着网络加深,准确率下降”的问题,Resnet提供了两种选择方式,也就是identity mapping和residual mapping,如果网络已经到达最优,继续加深网络,residual mapping将被push为0,只剩下identity mapping,这样理论上网络一直处于最优状态了,网络的性能也就不会随着深度增加而降低了。

它使用了一种连接方式叫做“shortcut connection”,顾名思义,shortcut就是“抄近道”的意思
参考链接
ResNet到底在解决一个什么问题:

  1. ResNet为什么不用Dropout?
    链接1
    链接2

  2. 为什么ResNet不在一开始就使用residual block,而是使用一个7x7的卷积?
    原因: 7x7卷积实际上是用来直接对输入图片降采样(early downsampling), 注意像7x7这样的大卷积核一般只出现在input layer

目的是: 尽可能保留原始图像的信息, 而不需要增加channels数.

本质上是: 多channels的非线性激活层是非常昂贵的, 在input layer用big kernel换多channels是划算的

注意一下, resnet接入residual block前pixel为56x56的layer, channels数才64, 但是同样大小的layer, 在vgg-19里已经有256个channels了.

这里要强调一下, 只有在input layer层, 也就是最靠近输入图片的那层, 才用大卷积, 原因如下:

深度学习领域, 有一种广泛的直觉,即更大的卷积更好,但更昂贵。输入层中的特征数量(224x224)是如此之小(相对于隐藏层),第一卷积可以非常大而不会大幅增加实际的权重数。如果你想在某个地方进行大卷积,第一层通常是唯一的选择。

我认为神经网络的第一层是最基本的,因为它基本上只是将数据嵌入到一个新的更大的向量空间中。ResNet在第二层之前没有开始其特征层跳过,所以看起来作者想要在开始整花里胡哨的layers之前尽可能保留图像里更多的primary features.

题外话, 同时期的GoogLeNet也在input layer用到了7x7大卷积, 所以resnet作者的灵感来源于GoogLeNet也说不定, 至于非要追问为啥这么用, 也许最直接的理由就是"深度学习就像炼丹, 因为这样网络工作得更好, 所以作者就这么用了".

再说个有趣的例子, resnet模型是实验先于理论, 实验证明有效, 后面才陆续有人研究为啥有效, 比如The Shattered Gradients Problem: If resnets are the answer, then what is the question? 可不就是炼丹么? 参考资料

  1. 什么是Bottlenet layer?
  2. ResNet如何解决梯度消失?
  3. ResNet网络越来越深,准确率会不会上升?
  4. ResNet v2:参考链接
  5. ResNet v1 与 ResNet v2的区别
  6. ResNet v2的ReLU激活函数有什么不同
  7. ResNeXt:参考链接
  8. Inception系列:v1,v2,v3,v4 参考链接
    参考链接2
  9. DenseNet:参考链接
  10. 为什么DenseNet比ResNet好
  11. 为什么DenseNet比ResNet更耗现存
  12. SE-Net:[
  13. Squeeze-Excitation结构是怎么实现的:参考
  14. FCN主要使用了三种技术:卷积化、上采样、跳跃结构
    卷积化

卷积化即是将普通的分类网络,比如VGG16,ResNet50/101等网络丢弃全连接层,换上对应的卷积层即可。

上采样

此处的上采样即是反卷积(Deconvolution)。当然关于这个名字不同框架不同,Caffe和Kera里叫Deconvolution,而tensorflow里叫conv_transpose。CS231n这门课中说,叫conv_transpose更为合适。

众所诸知,普通的池化(为什么这儿是普通的池化请看后文)会缩小图片的尺寸,比如VGG16 五次池化后图片被缩小了32倍。为了得到和原图等大的分割图,我们需要上采样/反卷积。

反卷积和卷积类似,都是相乘相加的运算。只不过后者是多对一,前者是一对多。而反卷积的前向和后向传播,只用颠倒卷积的前后向传播即可。所以无论优化还是后向传播算法都是没有问题。

跳跃结构(Skip Layers)

(这个奇怪的名字是我翻译的,好像一般叫忽略连接结构)这个结构的作用就在于优化结果,因为如果将全卷积之后的结果直接上采样得到的结果是很粗糙的,所以作者将不同池化层的结果进行上采样之后来优化输出。

上采样获得与输入一样的尺寸 文章采用的网络经过5次卷积+池化后,图像尺寸依次缩小了 2、4、8、16、32倍,对最后一层做32倍上采样,就可以得到与原图一样的大小

作者发现,仅对第5层做32倍反卷积(deconvolution),得到的结果不太精确。于是将第 4 层和第 3 层的输出也依次反卷积
参考链接
71. U-Net:
本文介绍一种编码器-解码器结构。编码器逐渐减少池化层的空间维度,解码器逐步修复物体的细节和空间维度。编码器和解码器之间通常存在快捷连接,因此能帮助解码器更好地修复目标的细节。U-Net 是这种方法中最常用的结构。

fcn(fully convolutional natwork)的思想是:修改一个普通的逐层收缩的网络,用上采样(up sampling)(??反卷积)操作代替网络后部的池化(pooling)操作。因此,这些层增加了输出的分辨率。为了使用局部的信息,在网络收缩过程(路径)中产生的高分辨率特征(high resolution features) ,被连接到了修改后网络的上采样的结果上。在此之后,一个卷积层基于这些信息综合得到更精确的结果。

与fcn(fully convolutional natwork)不同的是,我们的网络在上采样部分依然有大量的特征通道(feature channels),这使得网络可以将环境信息向更高的分辨率层(higher resolution layers)传播。结果是,扩张路径基本对称于收缩路径。网络不存在任何全连接层(fully connected layers),并且,只使用每个卷积的有效部分,例如,分割图(segmentation map)只包含这样一些像素点,这些像素点的完整上下文都出现在输入图像中。为了预测图像边界区域的像素点,我们采用镜像图像的方式补全缺失的环境像素。这个tiling方法在使用网络分割大图像时是非常有用的,因为如果不这么做,GPU显存会限制图像分辨率。 我们的训练数据太少,因此我们采用弹性形变的方式增加数据。这可以让模型学习得到形变不变性。这对医学图像分割是非常重要的,因为组织的形变是非常常见的情况,并且计算机可以很有效的模拟真实的形变。在[3]中指出了在无监督特征学习中,增加数据以获取不变性的重要性。

  1. DeepLab系列:总结
  2. 边框回归:
    如下图所示,绿色的框表示真实值Ground Truth, 红色的框为Selective Search提取的候选区域/框Region Proposal。那么即便红色的框被分类器识别为飞机,但是由于红色的框定位不准(IoU<0.5), 这张图也相当于没有正确的检测出飞机。

如果我们能对红色的框进行微调fine-tuning,使得经过微调后的窗口跟Ground Truth 更接近, 这样岂不是定位会更准确。 而Bounding-box regression 就是用来微调这个窗口的。

边框回归是什么?

对于窗口一般使用四维向量(x,y,w,h)(x,y,w,h) 来表示, 分别表示窗口的中心点坐标和宽高。 对于图2, 红色的框 P 代表原始的Proposal, 绿色的框 G 代表目标的 Ground Truth, 我们的目标是寻找一种关系使得输入原始的窗口 P 经过映射得到一个跟真实窗口 G 更接近的回归窗口G^。

所以,边框回归的目的即是:给定(Px,Py,Pw,Ph)寻找一种映射f, 使得f(Px,Py,Pw,Ph)=(Gx,Gy,Gw,Gh)并且(Gx,Gy,Gw,Gh)≈(Gx,Gy,Gw,Gh)

边框回归怎么做的?

那么经过何种变换才能从图2中的窗口 P 变为窗口G^呢? 比较简单的思路就是: 平移+尺度放缩

先做平移(Δx,Δy),Δx=Pwdx§,Δy=Phdy§这是R-CNN论文的: G^x=Pwdx§+Px,(1) G^y=Phdy§+Py,(2)

然后再做尺度缩放(Sw,Sh), Sw=exp(dw§),Sh=exp(dh§),对应论文中: G^w=Pwexp(dw§),(3) G^h=Phexp(dh§),(4)

观察(1)-(4)我们发现, 边框回归学习就是dx§,dy§,dw§,dh§这四个变换。

下一步就是设计算法那得到这四个映射。

线性回归就是给定输入的特征向量 X, 学习一组参数 W, 使得经过线性回归后的值跟真实值 Y(Ground Truth)非常接近. 即Y≈WX。 那么 Bounding-box 中我们的输入以及输出分别是什么呢?

Input: RegionProposal→P=(Px,Py,Pw,Ph)这个是什么? 输入就是这四个数值吗?其实真正的输入是这个窗口对应的 CNN 特征,也就是 R-CNN 中的 Pool5 feature(特征向量)。 (注:训练阶段输入还包括 Ground Truth, 也就是下边提到的t∗=(tx,ty,tw,th))

Output: 需要进行的平移变换和尺度缩放 dx§,dy§,dw§,dh§,或者说是Δx,Δy,Sw,Sh。我们的最终输出不应该是 Ground Truth 吗? 是的, 但是有了这四个变换我们就可以直接得到 Ground Truth。

这里还有个问题, 根据(1)~(4)我们可以知道, P 经过 dx§,dy§,dw§,dh§得到的并不是真实值 G,而是预测值G^。的确,这四个值应该是经过 Ground Truth 和 Proposal 计算得到的真正需要的平移量(tx,ty)和尺度缩放(tw,th)。

这也就是 R-CNN 中的(6)~(9): tx=(Gx−Px)/Pw,(6)

ty=(Gy−Py)/Ph,(7)

tw=log(Gw/Pw),(8)

th=log(Gh/Ph),(9)

那么目标函数可以表示为 d∗§=wT∗Φ5§,Φ5§是输入 Proposal 的特征向量,w∗是要学习的参数(*表示 x,y,w,h, 也就是每一个变换对应一个目标函数) , d∗§ 是得到的预测值。

我们要让预测值跟真实值t∗=(tx,ty,tw,th)差距最小, 得到损失函数为: Loss=∑iN(ti∗−w^T∗ϕ5(Pi))2

函数优化目标为:

W∗=argminw∗∑iN(ti∗−wT∗ϕ5(Pi))2+λ||w∗||2

利用梯度下降法或者最小二乘法就可以得到 w∗。
bouding box regression
边框回归详解
什么是边框回归?为什么要做边框回归?怎么做边框回归?

  1. 反卷积 与 转置卷积:参考链接
    Transposed Convolution, Fractionally Strided Convolution or Deconvolution

  2. 空洞卷积:如何理解空洞卷积

  3. Pooling层原理

  4. depthwise卷积加速比推导:为什么耗时
    参考

  5. 为什么降采样使用max pooling,而分类使用average pooling?参考

  6. maxpooling如何反向传播:参考

  7. 反卷积

  8. 组卷积(Group Convolution):
    深度学习_第6张图片
    从上图可以看出,一般的卷积会对输入数据的整体一起做卷积操作,即输入数据:H1×W1×C1;而卷积核大小为h1×w1,通道为C1,一共有C2个,然后卷积得到的输出数据就是H2×W2×C2。这里我们假设输出和输出的分辨率是不变的。主要看这个过程是一气呵成的,这对于存储器的容量提出了更高的要求。

但是分组卷积明显就没有那么多的参数。先用图片直观地感受一下分组卷积的过程。对于上面所说的同样的一个问题,分组卷积就如下图所示。
深度学习_第7张图片
可以看到,图中将输入数据分成了2组(组数为g),需要注意的是,这种分组只是在深度上进行划分,即某几个通道编为一组,这个具体的数量由(C1/g)决定。因为输出数据的改变,相应的,卷积核也需要做出同样的改变。即每组中卷积核的深度也就变成了(C1/g),而卷积核的大小是不需要改变的,此时每组的卷积核的个数就变成了(C2/g)个,而不是原来的C2了。然后用每组的卷积核同它们对应组内的输入数据卷积,得到了输出数据以后,再用concatenate的方式组合起来,最终的输出数据的通道仍旧是C2。也就是说,分组数g决定以后,那么我们将并行的运算g个相同的卷积过程,每个过程里(每组),输入数据为H1×W1×C1/g,卷积核大小为h1×w1×C1/g,一共有C2/g个,输出数据为H2×W2×C2/g。

举个例子:

Group conv本身就极大地减少了参数。比如当输入通道为256,输出通道也为256,kernel size为3×3,不做Group conv参数为256×3×3×256。实施分组卷积时,若group为8,每个group的input channel和output channel均为32,参数为8×32×3×3×32,是原来的八分之一。而Group conv最后每一组输出的feature maps应该是以concatenate的方式组合。 Alex认为group conv的方式能够增加 filter之间的对角相关性,而且能够减少训练参数,不容易过拟合,这类似于正则的效果。
参考链接

  1. 交错组卷积(Interleaved Group Convolutions,IGC):参考
  2. 空洞卷积/扩张卷积(Dilated/Atrous Convolution)
  3. 能不能设计一种新的操作,不通过pooling也能有较大的感受野看到更多的信息呢?空洞卷积
    背景:语义分割中pooling 和 up-sampling layer层。pooling会降低图像尺寸的同时增大感受野,而up-sampling操作扩大图像尺寸,这样虽然恢复了大小,但很多细节被池化操作丢失了。

需求:能不能设计一种新的操作,不通过pooling也能有较大的感受野看到更多的信息呢?

目的:替代pooling和up-sampling运算,既增大感受野又不减小图像大小。

简述:在标准的 convolution map 里注入空洞,以此来增加 reception field。相比原来的正常convolution,dilated convolution 多了一个 hyper-parameter 称之为 dilation rate 指的是kernel的间隔数量(e.g. 正常的 convolution 是 dilatation rate 1)。

空洞卷积诞生于图像分割领域,图像输入到网络中经过CNN提取特征,再经过pooling降低图像尺度的同时增大感受野。由于图像分割是pixel−wise预测输出,所以还需要通过upsampling将变小的图像恢复到原始大小。upsampling通常是通过deconv(转置卷积)完成。因此图像分割FCN有两个关键步骤:池化操作增大感受野,upsampling操作扩大图像尺寸。这儿有个问题,就是虽然图像经过upsampling操作恢复了大小,但是很多细节还是被池化操作丢失了。那么有没有办法既增大了感受野又不减小图像大小呢?Dilated conv横空出世。
深度学习_第8张图片

  1. 为什么不直接使用5x5或者7x7的卷积核?这不也增加了感受野么?
    答:增大卷积核能增大感受野,但是只是线性增长,参考答案里的那个公式,(kernel-1)*layer,并不能达到空洞卷积的指数增长。
    2.2-dilated要在1-dilated的基础上才能达到7的感受野(如上图a、b所示)

关于空洞卷积的另一种概括:

Dilated Convolution问题的引出,是因为down-sample之后的为了让input和output的尺寸一致。我们需要up-sample,但是up-sample会丢失信息。如果不采用pooling,就无需下采样和上采样步骤了。但是这样会导致kernel 的感受野变小,导致预测不精确。。如果采用大的kernel话,一来训练的参数变大。二来没有小的kernel叠加的正则作用,所以kernel size变大行不通。

由此Dilated Convolution是在不改变kernel size的条件下,增大感受野。

  1. 转置卷积核反卷积的区别?
    转置卷积(transposed Convolutions)又名反卷积(deconvolution)或是分数步长卷积(fractially straced convolutions)。反卷积(Transposed Convolution, Fractionally Strided Convolution or Deconvolution)的概念第一次出现是 Zeiler 在2010年发表的论文 Deconvolutional networks 中。

转置卷积和反卷积的区别

那什么是反卷积?从字面上理解就是卷积的逆过程。值得注意的反卷积虽然存在,但是在深度学习中并不常用。而转置卷积虽然又名反卷积,却不是真正意义上的反卷积。因为根据反卷积的数学含义,通过反卷积可以将通过卷积的输出信号,完全还原输入信号。而事实是,转置卷积只能还原shape大小,而不能还原value。你可以理解成,至少在数值方面上,转置卷积不能实现卷积操作的逆过程。所以说转置卷积与真正的反卷积有点相似,因为两者产生了相同的空间分辨率。但是又名反卷积(deconvolutions)的这种叫法是不合适的,因为它不符合反卷积的概念。

简单来说,转置矩阵就是一种上采样过程。

正常卷积过程如下,利用3x3的卷积核对4x4的输入进行卷积,输出结果为2x2
深度学习_第9张图片
转置卷积过程如下,利用3x3的卷积核对"做了补0"的2x2输入进行卷积,输出结果为4x4。
深度学习_第10张图片
88. Group Normalization
89. Xception
90. SENet(Squeeze-and-Excitation Networks):
论文的动机是从特征通道之间的关系入手,希望显式地建模特征通道之间的相互依赖关系。另外,没有引入一个新的空间维度来进行特征通道间的融合,而是采用了一种全新的“特征重标定”策略。具体来说,就是通过学习的方式来自动获取到每个特征通道的重要程度,然后依照这个重要程度去增强有用的特征并抑制对当前任务用处不大的特征,通俗来讲,就是让网络利用全局信息有选择的增强有益feature通道并抑制无用feature通道,从而能实现feature通道自适应校准。
深度学习_第11张图片
SENet学习笔记

  1. SKNet

  2. GCNet:
    GCNet:当Non-local遇见SENet
    2019 GCNet(attention机制,目标检测backbone性能提升)论文阅读笔记

  3. Octave Convolution

  4. MobileNet系列(v1,v2,v3):
    深度解读mobilenet
    mobilenet v3解读:

  5. MobileNet系列为什么快?各有多少层?多少参数?

  6. MobileNet v1、MobileNet v2和MobileNet v3有什么区别:
    MobileNetv1:在depthwise separable convolutions(参考Xception)方法的基础上提供了高校模型设计的两个选择:宽度因子(width multiplie)和分辨率因子(resolution multiplier)。深度可分离卷积depthwise separable convolutions(参考Xception)的本质是冗余信息更小的稀疏化表达。

下面介绍两幅Xception中 depthwise separable convolution的图示:
深度学习_第12张图片
深度学习_第13张图片
深度可分离卷积的过程是①用16个3×3大小的卷积核(1通道)分别与输入的16通道的数据做卷积(这里使用了16个1通道的卷积核,输入数据的每个通道用1个3×3的卷积核卷积),得到了16个通道的特征图,我们说该步操作是depthwise(逐层)的,在叠加16个特征图之前,②接着用32个1×1大小的卷积核(16通道)在这16个特征图进行卷积运算,将16个通道的信息进行融合(用1×1的卷积进行不同通道间的信息融合),我们说该步操作是pointwise(逐像素)的。这样我们可以算出整个过程使用了3×3×16+(1×1×16)×32 =656个参数。

注:上述描述与标准的卷积非常的不同,第一点在于使用非1x1卷积核时,是单channel的(可以说是1通道),即上一层输出的每个channel都有与之对应的卷积核。而标准的卷积过程,卷积核是多channel的。第二点在于使用1x1卷积核实现多channel的融合,并利用多个1x1卷积核生成多channel。表达的可能不是很清楚,但结合图示其实就容易明白了。

一般卷积核的channel也常称为深度(depth),所以叫做深度可分离,即原来为多channel组合,现在变成了单channel分离。

  1. MobileNet v2为什么会加shortcut

  2. MobileNet v2中的Residual结构最先是由哪个网络提出来的

  3. ShuffleNet系列(ShuffleNet v1,v2):
    shufflenet v1解读
    解读2
    shuffle具体实现
    shufflenet v2
    轻量级神经网络“巡礼”(一)—— ShuffleNetV2
    ShufflenetV2_高效网络的4条实用准则
    v1和v2对比

  4. IGC系列(IGC v1,v2,v3)参考

  5. 深度可分离卷积(Depth separable convolution)

  6. 学习率如何调整:链接

  7. 神经网络的深度和宽度作用:参考

  8. 网络压缩与量化:压缩与量化原理

  9. Batch Size:怎么选取batch size
    谈谈深度学习中的batch size

  10. BN和Dropout在训练和测试时的区别:链接

  11. 深度学习调参有哪些技巧:链接

  12. 为什么深度学习中的模型基本用3x3和5x5卷积(奇数),而不是2x2和4x4的卷积(偶数)?链接

  13. 深度学习训练中是否有必要使用L1获得稀疏解?链接

  14. EfficientNet
    如何评价谷歌大脑的EfficientNet?
    EfficientNet-可能是迄今为止最好的CNN网络
    EfficientNet论文解读
    EfficientNet:调参侠的福音(ICML 2019)

  15. 如何理解归一化(Normalization)对于神经网络(深度学习)的帮助?
    BN最早被认为通过降低所谓Internal Covariate Shift,这种想法的出处可考至Understanding the difficulty of training deep feedforward neural networks,想必这也是batch norm作者这么设计的初衷。但是这种想法并没有过多实验支持,比如说去年NeurlPS这篇paper作者做了实验,在batch norm之后加上一些随机扰动(non-zero mean and non-unit variance,人为引入covariate shift),发现效果仍然比不加好很多。为什么放在batch norm layer之后而不是之前?因为为了证伪batch norm通过forward pass这一步降低covariate shift来提升网络训练效率的。这样说来故事就变得很有趣了,也就是说我们大概都理解一些BN对BN层之前网络噪音的好处,那么能不能研究一下它对它后面layer的影响?所以这些研究从优化的角度,有如下几种观点。

BN通过修改loss function, 可以令loss的和loss的梯度均满足更强的Lipschitzness性质(即函数f满足L-Lipschitz和 [公式] -smooth,令L和 [公式] 更小,后者其实等同于f Hessian的eigenvalue小于 [公式] ,可以作为光滑程度的度量,其实吧我觉得,一般convex optimization里拿这个度量算convergence rate是神器,对于non-convex optimization,不懂鸭,paper里好像也没写的样子),这么做的好处是当步子迈得大的时候,我们可以更自信地告诉自己计算出来的梯度可以更好地近似实际的梯度,因此也不容易让优化掉进小坑里。有意思的地方来了,是不是我在某些地方插入一个1/1000 layer,把梯度的L-Lipschitz变成1/1000L-Lipschitz就能让函数优化的更好了呢?其实不是的,因为单纯除以函数会改变整个优化问题,而BN做了不仅仅rescale这件事情,还让原来近似最优的点在做完变化之后,仍然保留在原来不远的位置。这也就是这篇文章的核心论点,BN做的是问题reparametrization而不是简单的scaling。 [1]
BN把优化这件事情分解成了优化参数的方向和长度两个任务,这么做呢可以解耦层与层之间的dependency因此会让curvature结构更易于优化。这篇证了convergence rate,但由于没有认真读,所以感觉没太多资格评价。[2]
归一化手段是否殊途同归?很可能是的,在[1]的3.3作者也尝试了Lp normalization,也得到了和BN差不多的效果。至于Layer norm还是weight norm,可能都可以顺着这个思路进行研究鸭,无论是通过[1]还是[2],可能今年的paper里就见分晓了,let’s see。

How Does Batch Normalization Help Optimization?
Exponential convergence rates for Batch Normalization: The power of length-direction decoupling in non-convex optimization
参考资料

如何理解归一化(Normalization)对于神经网络(深度学习)的帮助?
107. 多标签分类怎么解决
107. 手推BP
108. 手推RNN和LSTM结构
109. LSTM中每个gate的作用是什么,为什么跟RNN比起来,LSTM可以防止梯度消失
110. 讲一下pooling的作用,为什么max pooling要更常用?哪些情况下,average pooling比max pooling更合适?
111. 梯度消失和梯度爆炸的原因是什么?怎么解决?
112. CNN和RNN的梯度消失原因是一样的吗?
113. 有哪些防止过拟合的方法?
114. 讲一下激活函数sigmoid,tanh,relu的应用场景?
115. relu的负半轴导数都是0,这部分产生的梯度消失怎么办?
116. batch size对收敛速度的影响
117. 讲一下Batch Normalization
118. CNN做卷积运算的复杂度 。如果一个CNN网络的输入channel数目和卷积核数目都减半,总的计算量变为原来的多少?
119. 讲一下AlexNet的具体结构,每层的作用
120. 讲一下你理解的dropout,分别从bagging和正则化的角度
121. data augmentaion有哪些技巧?
122. 讲一下你了解的优化方法,SGD (随机梯度下降), Momentum(动量),RmsProp和Adam的区别和联系?

  1. 如果训练的神经网络不收敛,可能有哪些原因?
    1、没有对数据进行归一化
    2、忘记检查输入和输出
    3、没有对数据进行预处理
    4、没有对数据正则化
    5、使用过大的样本
    6、使用不正确的学习率
    7、在输出层使用错误的激活函数
    8、网络中包含坏梯度
    9、初始化权重错误
    10、过深的网络
    11、隐藏单元数量错误
    12、优化算法不对,一般用adam居多。
    13、数据随机性太强,同时网络结构太复杂(样本空间太大,同时样本数量不够,网络函数空间也大)
    14、学习率过大。网络可能快要收敛了,却忽然在下一个epoch走向了错误的方向,最终导致不收敛。

作者:菜鸟瞎编
链接:https://www.jianshu.com/p/bbd11ad4e973

  1. 说一下你理解的卷积核,1x1卷积的作用?
    减少参数,整合特征通道,升维和降维。

你可能感兴趣的:(面试整理)