卷积神经网络课件

卷积神经网络通俗理解

卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习(deeplearning)的代表算法之一。

卷积神经网络具有表征学习(representationlearning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariantclassification),因此也被称为“平移不变人工神经网络。

谷歌人工智能写作项目:神经网络伪原创

卷积神经网络卷积的目的是什么?深度学习神经网络学习的是什么?

如何理解卷积神经网络中的卷积和池化

卷积神经网络的卷积核 怎么确定

一般都是定了一个固定的核的,例如你29*29的图片,就用5*5的核。这些都是经验。当然你也可以用大些的。

然后核的具体的值,就是要训练出来的,核的初始化的话,若果你的输入是0-1之前,那么核值也可以初始化在0-1之间,不会有太大的误差。《神经网络之家》专讲神经网络这一块。

卷积神经网络工作原理直观的解释?

其实道理很简单,因为卷积运算,从频域角度看,是频谱相乘所以图像跟卷积核做卷积时,两者频谱不重叠的部分相乘,自然是0,那图像这部分频率的信息就被卷积核过滤了。

而图像,本质上就是二维离散的信号,像素点值的大小代表该位置的振幅,所以图像包含了一系列频率的特征。比如图像边缘部分,像素值差别大,属于高频信号,背景部分,像素值差别小,是低频信号。

所以如果卷积核具有『高通』性质,就能起到提取图像边缘的作用,低通则有模糊的效果。所以,卷积神经网络的牛逼之处在于通过卷积层的不同卷积核,提取图像不同频段的特征;以及通过池化层,提取不同粒度的特征。

 

你可能感兴趣的:(ai智能写作,cnn,深度学习,机器学习,算法)