李宏毅深度学习——卷积神经网络CNN

卷积层有两种解释方式如下李宏毅深度学习——卷积神经网络CNN_第1张图片

 

 版本一  神经元

当我们人类在识别物体时,是分特征部位进行辨识。(比如,有尖尖的嘴,有羽毛,有翅膀,会飞,则可能为鸟类)可以将图片中的物体分成好几个部分(如鸟类的翅膀,喙),在对每个部分进行识别时,可以以接受域(receptive field)作为输入单位。每一个接受域由多个像素组成,可由一个或多个神经元识别。李宏毅深度学习——卷积神经网络CNN_第2张图片

 如上图所示,每个部分可以链接不同的神经元,不同部分之前可以重叠。

李宏毅深度学习——卷积神经网络CNN_第3张图片

 每个接受域在作为神经元的输入时,需要展成一个一维向量。

李宏毅深度学习——卷积神经网络CNN_第4张图片

 接受域内的卷积核可以按照不同的步长进行水平或竖直的移动,到某一位置不足以凑齐一个卷积核时,可进行填充(任意值),直到卷积核覆盖全部接受域。

当同一种类型的物体在图片的不同位置时,需要做到不同位置都具有能够识别该物体的神经元。

李宏毅深度学习——卷积神经网络CNN_第5张图片

 可以使得两个神经元的输入权重相同。

李宏毅深度学习——卷积神经网络CNN_第6张图片

李宏毅深度学习——卷积神经网络CNN_第7张图片

 全连接层—>接受域:让某些输入的input权重为0

与图像识别来说,常常很多图像中都有相同的部分,所以可以使用卷积层,(在不同的区域中出现相同的参数。)

版本二   过滤器

李宏毅深度学习——卷积神经网络CNN_第8张图片

 过滤器可以将6*6*1的矩阵转换为4*4*1

不同过滤器输出的新矩阵叠在一起被称为feature map。过滤器的数量成为了channel的数量。

李宏毅深度学习——卷积神经网络CNN_第9张图片

 李宏毅深度学习——卷积神经网络CNN_第10张图片

 只要network够深,所检测的pattern范围越大。

在卷积神经网络中,通常会进行的操作是池化。按照某一个规则保留某一些值,使得整个网络的参数减少。

MaxPooling——增强特征,减少数据

李宏毅深度学习——卷积神经网络CNN_第11张图片

 如下图,在池化后,4*4*64矩阵变为2*2*64

李宏毅深度学习——卷积神经网络CNN_第12张图片

 卷积神经网络过程如下图。一张图片不断的进行卷积池化,然后打平输入到全链接层中,在经过soft max等方法得到one hot向量,最后就可以得到识别结果了。李宏毅深度学习——卷积神经网络CNN_第13张图片

有关于alpha go用CNN实现

李宏毅深度学习——卷积神经网络CNN_第14张图片

 李宏毅深度学习——卷积神经网络CNN_第15张图片

 未进行池化,可能会丢掉关键信息。

你可能感兴趣的:(李宏毅深度学习,深度学习,神经网络)