Natural Adversarial Examples论文笔记

文章目录

    • 1. Introduction
    • 2. ImageNet-A

Attention:

论文解读的博客原文发布于个人github论文合集 欢迎关注,有想法欢迎一起讨论!私信评论均可。

后面有些语法在CSDN的markdown上不支持,导致显示bug,我就懒得改了,有需求直接访问原博客查看。

创建人 github论文汇总 个人博客 知乎论文专栏
ming71 paperdaily chaser 专栏

论文发布日期:2019.7.16

1. Introduction

介绍了一个数据集ImageNet-A,包含7500个自然界中存在出现(相对于人工合成的对抗样本)的易错分的实例。该数据集使得DenseNet-121的分类精度从92%降低到2%。

反映两个问题:
(1)分类器过于依赖颜色、纹理和背景信息(如下图),很难在这些自然对抗样本上取得好的效果。
(2)当前分类器精度很高并不意味着可以很好地解决这些对抗样本的问题。因为自然对抗样本在ImageNet中的比例很小,即使全部分不对,精度也可以达到很高。

【注意】分类和检测任务是不同的。后面自己做实验会说明这一点。

2. ImageNet-A

  • 数据集
    选择了ImageNet的200个类,解压出来是200个文件夹,每个文件夹下单独类对抗样本几十张。

  • 实验结论
    作者通过实验改进发现传统的训练方法在对抗样本数据集上不奏效,分类涨点不多。部分对网络结构的调整能够有较好的提升。

  • 数据集部分图片
    我用cascade mask RCNN在COCO上训练的模型对其进行分割测试,发现有的结果确实不好;但是有的挺好的:推测原因是:分割检测和分类不同,可以聚焦局部信息。

Natural Adversarial Examples论文笔记_第1张图片
Natural Adversarial Examples论文笔记_第2张图片
Natural Adversarial Examples论文笔记_第3张图片
Natural Adversarial Examples论文笔记_第4张图片
Natural Adversarial Examples论文笔记_第5张图片
Natural Adversarial Examples论文笔记_第6张图片



你可能感兴趣的:(papers)