[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】

此笔记来源于李宏毅老师的机器学习视频,以下属于自己的理解以及老师上课的内容,由于公式过多,不便于直接打字,故用手写笔记替代。

Github的链接(pdf):https://github.com/Bessie-Lee/Deep-Learning-Recodes-LiHongyi

本文主要介绍的是CNN以及spatial transformer layer。

其中,CNN是从俩个角度进行介绍

  • 一个是从fully connected layer进行减少freedom,一步步介绍receptive field 和sharing parameters来进一步介绍CNN;
  • 另一种则是从CNN的流程出发,介绍convolution计算,到pooling池化的作用,再加一层fatten,过一层全连接以及softmax得到最后的结果。

而因为CNN对于旋转、缩放的图片训练效果不是很OK,故而增加了一层叫做spatial transformer layer,使得图片可以进行缩放和旋转,最后得到一个局部的最优图片,再进行统一的比例划分作为CNN的输入。

中间还介绍了Pooling池化的目的(pooling设计的根本就是减少运算量,将一些参数进行删减)以及为什么Alpha Go没有在算法里面采用pooling池化的原因(因为棋盘本身也就13×13的大小,在Alpha Go原文中,设置的初始是13×13×48,要是再做池化,估计结果会非常的不准确,而下棋要做到的就是步步准确)。

下面是手写笔记的内容:
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第1张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第2张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第3张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第4张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第5张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第6张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第7张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第8张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第9张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第10张图片

[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第11张图片
[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第12张图片

[李宏毅老师深度学习视频] CNN两种介绍 + Spatial Transformer Layer【手写笔记】_第13张图片

你可能感兴趣的:(学习ML+DL,深度学习,transformer,cnn,人工智能)