【深度学习笔记】卷积网络中的卷积与互相关的那点事

卷积层的来源与作用

深度学习的计算机视觉是基于卷积神经网络实现的,卷积神经网络与传统的神经网络(可以理解为多层感知机)的主要区别是卷积神经网络中除了全连接层外还有卷积层和pooling层等。

卷积层算是图像处理中非常基础的东西,它其实也是全连接层演变来的,卷积可视为局部连接共享参数的全连接层。

局部连接:在全连接层中,每个输出通过权值(weight)和所有输入相连。而在视觉识别中,关键性的图像特征、边缘、角点等只占据了整张图像的一小部分,图像中相距很远的两个像素之间有相互影响的可能性很小。因此,在卷积层中,每个输出神经元在通道方向保持全连接,而在空间方向上只和一小部分输入神经元相连。

共享参数: 使用同一组权值去遍历整张图像,用于发现整张图像中的同一种特征例如角点、边缘等。不同的卷积核用于发现不同的特征。共享参数是深度学习一个重要的思想,其在减少网络参数的同时仍然能保持很高的网络容量(capacity)。卷积层在空间方向共享参数,而循环神经网络(recurrent neural networks)在时间方向共享参数

卷积层的作用:通过卷积,我们可以捕获图像的局部信息。通过多层卷积层堆叠,各层提取到特征逐渐由边缘、纹理、方向等低层级特征过度到文字、车轮、人脸等高层级特征。

卷积与互相关

但是其实深度学习各框架的conv2卷积层的API对卷积运算的实现其实使用的是互相关运算,即下图:

你可能感兴趣的:(深度学习,机器学习,计算机视觉,深度学习,网络,计算机视觉)