李宏毅机器学习学习打卡Task06-卷积神经网络篇

一、使用CNN处理图像的原因

1.Small region

识别图片往往只需要一小块区域即可。

李宏毅机器学习学习打卡Task06-卷积神经网络篇_第1张图片
2.Same Patterns

两张图片中相同的能直接识别特征的小区域的位置可能不一样。

李宏毅机器学习学习打卡Task06-卷积神经网络篇_第2张图片
3.Subsampling

缩小图片依然能够识别。

李宏毅机器学习学习打卡Task06-卷积神经网络篇_第3张图片

二、CNN的架构

基本上是输入图片,经过卷积层和池化层(可能多次这两层的组合),然后铺平最终输入全连接层。

李宏毅机器学习学习打卡Task06-卷积神经网络篇_第4张图片

三、卷积层

取一个卷积核来对相等大小的原图的某一个区域进行矩阵内积运算。
李宏毅机器学习学习打卡Task06-卷积神经网络篇_第5张图片

核的大小对应了Small region的概念;不同位置核内积得出来相同的值对应了Same patterns的概念。

convolution和fully connected之间的关系?(如下图)
李宏毅机器学习学习打卡Task06-卷积神经网络篇_第6张图片

四、池化层

此时贴的是最大池化的过程,主要用于缩减图片大小。
也可用平均池化。
李宏毅机器学习学习打卡Task06-卷积神经网络篇_第7张图片
李宏毅机器学习学习打卡Task06-卷积神经网络篇_第8张图片

五、铺平

将矩阵全部一维展开。

李宏毅机器学习学习打卡Task06-卷积神经网络篇_第9张图片

六、CNN的延展

深度梦境
风格迁移

七、CNN的应用

围棋
语音
文本

你可能感兴趣的:(机器学习)