李宏毅机器学习(四)Spatial Transformer Layer

学习内容

架构; 目的就是克服CNN的旋转和缩放不变性的缺点的!

前情提要

CNN is not invariant to scaling and rotation;
CNN对缩放和旋转不是不变的;也就是说CNN是变化的,不具有旋转和缩放不变性;
因为如果你将某个小狗缩放到一张图片的小部分或者是将3旋转为m,那么CNN可能会给你识别成金拱门;
所以怎么消除这个问题呢?
添加一个NNlayer! 将目标放大! 当然,它也是一个neural network

李宏毅机器学习(四)Spatial Transformer Layer_第1张图片

Spatial Transformer Layer

如何实现neural network来实现功能呢

我们获得layer l层的每个特征时都需要上一层的所有的特征的遍历
这里我们可以看到是将所有的特征都往下移动了,所以只需要让上一行的权重为1,其它全部为0就行;

李宏毅机器学习(四)Spatial Transformer Layer_第2张图片

而这里呢,我们也是设置0和1就行了。

李宏毅机器学习(四)Spatial Transformer Layer_第3张图片

如果我们实现平移旋转缩放

每一个pixel给定一个坐标,对每个pixel变化!

李宏毅机器学习(四)Spatial Transformer Layer_第4张图片

Interpolation

感觉都是工具,没有记录,大家可以看原视频

实例

我们可以通过将一个鸟分细节来学习特征并最后融合!

你可能感兴趣的:(知识图谱,李宏毅机器学习,知识图谱)