《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记

目录

基于Alexnet上进行改进

关于反卷积

图像局部相关性分析

实验数据


视频链接:ZFNet深度学习图像分类算法_哔哩哔哩_bilibili

基于Alexnet上进行改进

具体的改进效果在图8

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第1张图片

图1 具体改进

关于反卷积

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第2张图片

 图2 反卷积流程图

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第3张图片

 图3 反池化的过程

图片例子:右边是最大激活的真实图片(9×9),左边是通过反卷积得到的可视化特征图(让我们了解卷积的时候,神经网络学习到的特征是什么),对应图2的反卷积流程图可以知道,这是重构

图4 图片例子

层数越高提取的特征越高级、不变,如层五,提取的是草地背景

 图5  3、4、5层反卷积的输出

第二列的热力图在第五层时,灰色方框在图中不同位置进行遮挡,然后对这些结果进行叠加

图6 遮挡测试

图像局部相关性分析

在图像局部相关性分析中,通过对比遮不同部位的海明距离,验证了上面所说:层数越高(第五层vs第七层,从大到略大)越是关注语义信息,趋向不变性

图7 图像局部相关性分析

实验数据

进行测试,a模型将第一层卷积层的步长由4改成2,卷积核的大小从11×11改成7×7;b模型是在a模型的基础上:把3、4、5层的卷积层个数增加到512、1024和512

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第4张图片

图8 对AlexNet进行更改的实验

去除一些层,可见深度对其有影响;增加神经元,可见出现了过拟合现象

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第5张图片

图9 去除一些层的实验

体现模型的泛化性和迁移学习的巧妙,当使用在ImageNet上训练好的参数放到新的数据集(Caltech-101),仅对最后添加的softmax层进行训练的效果要比不保留参数、重新训练的效果好很多

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第6张图片

 图10 在Caltech-101上迁移学习

在Caltech256上同理

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第7张图片

 图11 在Caltech256上迁移学习

只用6张图片训练每个类就能达到之前最好的效果,大大节省了计算成本,当然数据越多效果越好

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第8张图片

图12 迁移学习减少计算

在与ImageNet数据集长的不太一样的数据集中,迁移学习行不通,但是可以针对新的数据集更改损失函数再利用迁移学习

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第9张图片

图13 在PASCAL 2012上迁移学习

分析了网络中不同的层提取特征对分类的有效性,发现越深的层对提取信息越有效,不管是全连接层还是支持向量机都是对其起到一个分类的作用

《可解释人工智能公开课》—by 同济子豪兄 第二章ZF算法笔记_第10张图片

图14 全连接层与支持向量机

你可能感兴趣的:(人工智能,算法,深度学习)