[翻译]5.1 Convolutional Neural Networks

2017年8月19日星期六整理第五章部分

此处给出本节的代码:https://github.com/Leechen2014/TensorFlow-for-Machine-Intelligence

相关的文件描述在github中给出。

PS:翻译来源:

http://shop.oreilly.com/product/9781939902351.do





Convolutional Neural Networks (卷积神经网络)

从专业技术上讲,卷积神经网络是一种至少有一层(tf.nn.conv2d)卷积层的神经网络。在卷积层是将其输入层f和可配置卷积核g之间进行卷积并生成这一层的输出。在简化定义中,卷积的目的是将内核(过滤器、kernel、filter)应用于张量中的每一个点(point),并通过在输入张量上滑动内核来产生一个过滤之后(filtered)的输出。


PS:这句话说白了就是本层的输入和本层的卷积核以及卷积,卷积的过程通常是通过滑动窗口进行的,其输出的结果卷积后的。


给出一个边缘检测的滤波示例。给出一个应用于图像每一个像素点的内核,输出是描绘出所有边缘的新图像。在这个示例中,输入的张量(Tensor)是图像,张量中的每一个点被认为是一个包含有红、绿、蓝像素的点。内核会滑过图像中的每一个像素,并且当颜色之间存在边缘时输出的值就会增加。下图简单展示了当输入时一个图像,输出是图像中找到的所有水平线。



[翻译]5.1 Convolutional Neural Networks_第1张图片

要理解如何结合输入进行卷积并且生成过滤后的图像和什么是卷积核这两点十分重要。因为一直到这章的后半部分都会在在练习的时候遇到。

Obtaining a broad sense of what a CNN does and its biological inspiration builds the technical implementation。


在1968年,一篇文章详细地描述了关于猴条纹皮层(大脑想要处理视觉输入的部分)的细胞布局的新发现。文章讨论了垂直延伸组合在一起以匹配某些视觉特征的细胞群。灵长类大脑的研究似乎与机器学习任务无关,但它在使用CNN的深度学习发展中是有用的。

CNN遵循简化的过程匹配信息,类似于在猴纹状体皮层的细胞布局中发现的结构。当信号通过猴子的条纹皮质的时候,某些层会突出显示。例如,当水平线通过它时,某一层的细胞激活(增加其输出信号)。CNN的神经元群也会展示相似的行为,其通过从“训练”中学习到的模式将神经元簇将激活。比如,训练完毕以后,当一组横线通过的时候CNN会在确定的层里面激活。

(PS:这点我翻译的不是太准确,对horizontal line不是太了解,贴出原文:

CNNs follow a simplified process matching information similar to the structure found in the cellular layout of a monkey’s striate cortex. As signals are passed through a monkey’s striate cortex, certain layers signal when a visual pattern is highlighted. For example, one layer of cells activate (increase its output signal) when a horizontal line passes through it. A CNN will exhibit a similar behavior where clusters of neurons will activate based on patterns learned from training. For example, after training, a CNN will have certain layers that activate when a horizontal line passes through it.)


对于匹配水平线在神经网络架构上很有用。但是CNN把这种思想推进了一层,CNN使用多层简单的模式去匹配复杂模式。在CNN的上下文中,这些模式被称为过滤器(filter)或者是内核(kernel)。CNN的目标就是调整这些内核的权重直到他们可以准确的匹配训练数据为止。训练这些过滤器常常是通过组合不同的层并且通过梯度下降(gradient descent)学习权重的方式来实现。

一个普通的CNN架构可能会结合卷积层(tf.nn.conv2d),非线性层(tf.nn.relu),池化层(tf.nn.max_pooling)以及一个全连接层(tf.matmul)。如果没有这些层的话,我们很难匹配复杂的模式,这是因为网络会过滤掉很多信息。一个设计的比较好的CNN架构会在强调重要信息的同时去除噪声。在本节的后面会详细的讲解如何把这些层结合到一起来使用。


[翻译]5.1 Convolutional Neural Networks_第2张图片

此架构的输入图像是一种复杂的格式,旨在支持加载多个图像的能力。加载一批图像同时需要允许计算多个图像,这就要求需要由复杂的数据结构。该数据结构应该是秩(rank)为4的张量,张量里包含了一批图像的所有信息。Tensorflow的输入管道(input pipline)(用于对文件解码并且读取)有一个用于批量处理多个图像的特殊设计形式,其包含了对于图像而言所有的信息:([image_batch_size, image_height, image_width, image_channels])。通过示例代码我们可以知道在与tensorflow的图像中检查输入的数据结构。


[翻译]5.1 Convolutional Neural Networks_第3张图片
PS: 书中的原有代码不是这样写的, 但是大致差不多


示例代码的输出结果是:


PS 书中使用的是ipython/jupyter , 输出的结果是: TensorShape ([ Dimension ( 2 ), Dimension ( 2 ), Dimension ( 3 ), Dimension ( 3 )])


注意:

示例代码和以后的例子中不会包含启动tensorflow的运行代码。省略的部分包含有:导入tensorflow的语句(通常用tf来简称),创建Tensorflow的会话为sess,初始化所有的变量和启动并运行多个线程。如果不执行这些步骤就执行示例代码,可能会出现未定义变量错误。

在示例代码中,批处理图像中包含有两个图像。每个图像里面包含有高为两个像素、宽为3个像素的RGB色彩空间。执行代码之后会输出图像的数量作为第一个集合的维度,每个图像的高作为第二个集合的维度,图像的宽代表第三个集合的维度,色彩通道作为最后一个集合的维度。

图像的宽高映射关系需要注意,如果要尝试着获取第一个图像的第一个像素应该这样做:

sess.run(image_batch)[0][0][0]

执行示例之后的代码输出结果如下:

array([0,255,0],dtype=int32)


上面的示例不是从磁盘上加载的图像,image_batch变量可以看做是输入管道加载图像的一部分。使用输入管道会从磁盘上加载同样格式,所做的事情也是一样的。通常情况下,创建类似于上面示例的image_batch这样的假数据是有用的。它可以简化输入并使得调试问题变得简单。其主要是为了使得调试变得简单,因为CNN架构往往非常复杂,并且常常需要几天的时间用来训练。

PS:这句话说白了就是,我们在模拟输入管道。模拟数据对于调试很有帮助。

CNN架构中遇到的第一个复杂工作就是卷积层的工作。在任何图像加载和操纵之后,卷积层往往是网络里面的第一层。第一个卷积层很有用,因为太会简化网络中其余的部分并用于调试。下一节将重点介绍卷积层如何操作,并且如何通过Tensorflow使用它。

你可能感兴趣的:([翻译]5.1 Convolutional Neural Networks)