机器学习笔记6

机器学习笔记6

为什么CNN用来处理图像?
机器学习笔记6_第1张图片
两个观察:
1.一个神经元不需要看到整张图片就可以获取pattern,比如只要看一个区域就可以知道是不是鸟嘴。
机器学习笔记6_第2张图片
2.同样的patterns出现在不同的区域
机器学习笔记6_第3张图片
3.下采样不会改变物体
机器学习笔记6_第4张图片
CNN的架构:
机器学习笔记6_第5张图片

卷积:

例:检测连续的111出现机器学习笔记6_第6张图片
机器学习笔记6_第7张图片
机器学习笔记6_第8张图片
机器学习笔记6_第9张图片
将卷积拉开到平面可得:
1、4*4=16个input却只有9个进行了链接,就减少了参数个数。
2、由于共用一个卷积核,许多权值(卷积核中的值)是共享的,就使得参数更少了。

Max pooling

机器学习笔记6_第10张图片
几个filter就生成几维的output
机器学习笔记6_第11张图片
用25个卷积核做一次卷积得到25个feature map,两次是得到25*25个feature map吗??

不是的

输出还是25个feature map,输入的25个feature map通道作为深度被一起考虑(我记得是相加?)最后输出feature map数一直等于filter数

Flatten(为了放入全连接层)

机器学习笔记6_第12张图片
机器学习笔记6_第13张图片
令filter的activation最大:就可以得到每个filter在检测什么
机器学习笔记6_第14张图片
机器学习笔记6_第15张图片
filter的图表示filter所检测的特征(例如斜条纹)
在全连接层:每个neuron的工作是在整张图上找到最activate的那个
机器学习笔记6_第16张图片
机器学习笔记6_第17张图片
这些图就表示机器在看到这些图时会输出对应的数字可能性最大。
机器学习笔记6_第18张图片
让CNN夸大看到的东西:
机器学习笔记6_第19张图片
机器学习笔记6_第20张图片

你可能感兴趣的:(机器学习,人工智能,深度学习)