包含卷积层的神经网络就可以称为卷积神经网络。
卷积操作详解
卷积层:一个滑动窗口在特征图上滑动并进行计算。
局部感知:指卷积运用了滑动窗口
权值共享:指滑动窗口滑动过程中,卷积核各个值不变
卷积层比起全连接层的好处,卷积层的参数远远小于全连接层的参数。这是由于卷积具有权值共享的特点。
贴个描述简单的链接大致记一下
指
1×1卷积的主要作用有以下几点:
1、降维。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做11的卷积,那么结果的大小为500500*20。
2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学习表示上添加了非线性激励,提升网络的表达能力;
3、增加模型深度。可以减少网络模型参数,增加网络层深度,一定程度上提升模型的表征能力。
简单的理解就是把图片进行放大了。在算法中,在我们做图像识别过程中,需要对图像进行像素级别的分类,因此在卷积提取特征后需要通过上采样将feature map 还原到原图中。
反卷积
反卷积是一种特殊的正向卷积,先按照一定的比例通过补 来扩大输入图像的尺寸,接着旋转卷积核,再进行正向卷积。
Softmax从字面上来说,可以分成soft和max两个部分。max故名思议就是最大值的意思。Softmax的核心在于soft,而soft有软的含义,与之相对的是hard硬。很多场景中需要我们找出数组所有元素中值最大的元素,实质上都是求的hardmax。
交叉熵损失
指路原作者大大
堆叠很多小的卷积核来代替大的卷积核,以此达到具有相同的感受野,但是参数数量大大减少的目的。
是激活函数而非损失函数。
使用激活函数的作用:引入非线性因素,使该网络具备处理非线性数据的能力。
使用 Sequential 函数组合成新的网络层。
Sequential 函数的输出。
粘代码好麻烦:代码所在处来这里
为大家指路原作者大大
在ResNet网络提出之前,传统的卷积神经网络都是通过将一系列卷积层与下采样层进行堆叠得到的。但是当堆叠到一定网络深度时,就会出现两个问题。1)梯度消失或梯度爆炸。 2)退化问题(degradation problem)。在ResNet论文中说通过数据的预处理(常会对图像进行标准化处理,这样能够加速网络的收敛.)以及在网络中使用BN(Batch Normalization,使feature map满足均值为0,方差为1的分布规律。)层能够解决梯度消失或者梯度爆炸问题。但是对于退化问题(随着网络层数的加深,效果还会变差)并没有很好的解决办法。
所以ResNet论文提出了residual结构(残差结构)来减轻退化问题。使用residual结构的卷积网络,随着网络的不断加深,效果并没有变差,反而变的更好了。
在ResNet网络中有如下几个亮点:
(1)提出residual结构(残差结构),并搭建超深的网络结构(突破1000层)
(2)使用Batch Normalization加速训练(丢弃dropout)
f:卷积神经网络构成,用于提取特征
z: 全连接层,用于预测相似度
孪生网络的反向传播
相同的类聚集在一起,不同的类远远相隔。故,d+更小,d-更大。
梯度下降更新参数。
深度学习在目标检测领域的开山之作。
不同于R-CNN,本算法只提取一次卷积特征(整图对应的完整卷积特征)
与R-CNN框架相比,Fast R-CNN从四个部分变为两个部分。Fast R-CNN将特征提取、分类、回归整合到一起。
256d:由ZF决定,一维向量,深度(不太理解哈哈哈)
ZF的感受野为:171171,但是仍然能够预测256256.是因为原作者认为,只知道目标的一部分,是可以预测全部的。并且这种想法应用的很好。
同上。
转置卷积
转置卷积:将feature maps还原成卷积之前的大小。
GAN: 学习数据中的规律,生成以假乱真的东西。
组成:生成、判别和对抗。
生成器:依据随机向量产生内容。
判别器:判断接收到的内容是否为真实的。输出概率,表示真实的程度。
对抗:GAN的交替训练过程。以图片生成为例,先让生成器产生一些假图,和收集到的真图片一起交给判别器,让判别器学习区分二者。给真的高分,给假的低分。当判别器能够熟练判断现有数据后,再让生成器以从判别器处得到高分为目标,不断生成更好的假图片,直到能骗过判别器。重复进行上述过程,直至判别器对任何一张图片的预测概率均接近0.5。即无法分辨图片的真假,就停止训练。
训练GAN的目标是获得一个足够好用的生成器,也就是生成以假乱真的内容