深度学习难么?一文解决部分困惑

深度学习解决哪些问题?
分类 和 回归
这两个有实质区别么?
二郎觉得他们的区别只是在最后网络输出时的区别,输出的是判断类别的概率百分数还是最终的结果与我们拟合的曲线关系一致。

在解决复杂问题时,我们都需要先从简单的问题入手
现在我们想判断一张图中有没有路牌,学过图像处理课的都知道,这是一个简单的匹配问题。

简单

我们用一个路牌的模板去在图中进行全局匹配;
匹配到的位置标为1,没匹配到的标为-1;
最后总结,匹配结果有1就证明有路牌。

卷积与均值

全局匹配是通过窗操作进行的,学术术语是卷积,对应点相乘再相加(这里不够准确,卷积需要一个翻转的过程,不过很多情况下大家不做强调)
①plus1:卷积操作。
在②中,我们的行为是不是太过草率,完全匹配上的能有几个?路牌不会按你的心意长成你想要的样子的,或者说根本就没有一模一样的路牌,而且背景也是有问题的。
于是,我们就需要用到均值,用窗内每个像素点进行匹配,匹配后把所有点匹配的结果取平均值,接近1表示匹配成功率较高,接近-1表示匹配失败率较高。
这里有个问题,-1怎么来的?二值图的时候比较好形容,黑色为-1,白色为1,那么灰阶为256的呢?
用归一化处理。
无论+1、-1,我们只想说明一个问题,我们用模板去匹配,匹配窗扫过的位置越接近模板,越说明该位置有和模板一致的物体,这里用到均值,是为了避开一些其他影响因素,让我们不至于非常苛刻的认为只有1才是匹配上的。
②plus1:匹配为窗操作(这个不知道的自己去看下,比较简单),取平均值。

不同尺度

模板太小,图中的路标太大;路标太小,模板太大……匹配不上
不同尺度(说句普通话:把模板变大变小后再去匹配,就是这样的道理)
②plus2:用不同大小的窗进行匹配,3X3,5X5等尺寸的窗

深度学习:

1:卷积核
对应于上面的路标模板,一般深度学习学习的也是这个卷积核(路标模板)
,让这个模板能够准确地辨别出图中有无路标。
而上面的 ②plus2也对应到了这里,不同尺度,所以我们一般会用到不同尺度的卷积核——3X3,5X5等。
那么在训练的开始,卷积核如何选取呢?随机给定初值,通过迭代,找到最优卷积核。
2:卷积运算
让卷积核在图像中滑动,进行卷积运算,对应 ①plus1 ②plus1
卷积运算后我们得到了什么?
深度学习难么?一文解决部分困惑_第1张图片
我们得到了freture map(特征图),这个图反映了,图像中的每个区域与卷积核的相关性,也就是匹配度。相关性越大,证明该区域与卷积核匹配程度越高,越说明该区域存在与卷积核类似的特征,该区域存在路标。相当于我们的全局匹配。
3:多层卷积
卷积层多少层,卷积核多大……这些如果大家检索,可能不会得到实质的帮助,因为很多情况下这些参数的设置还不具备理论支撑。
这里二郎提出一种过滤的概念,和滤波器差不多。
比如我们想要找个路牌
卷积层一
过滤出图中所有的三角形标志
得到freture map1
卷积层二
过滤出黄色三角的标志
得到freture map2
卷积层三
过滤出带有文字的黄色三角的标志
得到freture map3
卷积层四
过滤出有红色的带有文字的黄色三角的标志
得到freture map4
经过层层过滤,最终的freture map4代表了有红色的带有文字的黄色三角的标志是否存在的,以及存在的可能。
4:激活函数、池化
这两个放到一块说,其实作用是类似的,都是减少参数,提高计算速度
激活函数直接减少图像中参数点在每一层的传播
池化能够改变图像尺寸,求局部极值,代表了整个局部的特性
这里有人会问了,改变了图像尺寸,那么我们就不知道我们的匹配到的特征具体所在位置了————不需要知道,至少在CNN中不需要知道,比如你判断一个图是猫还是狗,你真的需要知道猫在图中哪个位置?狗在图中哪个位置?这些都是后话,最基本的分类深度网络没有考虑保持位置信息的传播。
5:全连接层
将所有找到的局部特征放到一起获得全局信息
对于cnn,全连接层直接把找到的局部特征降维成一堆序列。
用softmax对所有序列进行归一化
然后按照概率的大小进行分类,实现“分布式特征表示”映射到样本标记空间的作用。

到这里,基本的深度网络,,,CNN就讲完了,然后就是从网上荡(下载)程序,自己跑跑试试,误差函数以及卷积层数和卷积核都是可以调节的。

其他的网络也可以借鉴该模式。

你可能感兴趣的:(深度学习)