科研篇四:对抗样本20篇-ICML2019

文章目录

  • 一、对抗攻击(Adversarial Attack)
      • 1.1.Adversarial Attacks on Node Embeddings via Graph Poisoning
      • 1.2.Adversarial camera stickers: A physical camera-based attack on deep learning systems
  • 二、对抗防御
      • 2.1.Using Pre-Training Can Improve Model Robustness and Uncertainty
      • 2.2.Improving Adversarial Robustness via Promoting Ensemble Diversity
      • 2.3.On Certifying Non-Uniform Bounds against Adversarial Attacks
  • 三、其他角度谈对抗样本
      • 3.1. First-Order Adversarial Vulnerability of Neural Networks and Input Dimension
      • 3.2.Adversarial examples from computational constraints

一、对抗攻击(Adversarial Attack)

1.1.Adversarial Attacks on Node Embeddings via Graph Poisoning

一般来说,paper或者是新方法新理论,或者是新应用新场景。本文属于后者(对基于随机游走(Random walks)方法的图模型的攻击)。

LINK:http://proceedings.mlr.press/v97/bojchevski19a.html

科研篇四:对抗样本20篇-ICML2019_第1张图片

1.2.Adversarial camera stickers: A physical camera-based attack on deep learning systems

新应用新场景(通过在相机上粘贴纸来达到对抗攻击的目的)。

LINK:https://arxiv.org/pdf/1904.00759.pdf

科研篇四:对抗样本20篇-ICML2019_第2张图片

二、对抗防御

对抗防御一般可以从预处理、detector等等角度入手。ICML2019入选的对抗防御论文中就有这些方向的工作。

2.1.Using Pre-Training Can Improve Model Robustness and Uncertainty

如题,探讨预训练在提高网络鲁棒性等方面的作用。

LINK:https://arxiv.org/pdf/1901.09960v1.pdf

科研篇四:对抗样本20篇-ICML2019_第3张图片

2.2.Improving Adversarial Robustness via Promoting Ensemble Diversity

该paper探索了单一网络之间的交互,定义了集成多样性(ensemble diversity),并且采用了ADP正则器(Adapative Diversity Promoting regularizer)来鼓励多样性。

LINK:https://arxiv.org/pdf/1901.08846.pdf
CODE:https://github.com/P2333/Adaptive-Diversity-Promoting

科研篇四:对抗样本20篇-ICML2019_第4张图片

2.3.On Certifying Non-Uniform Bounds against Adversarial Attacks

本文旨在寻找adversary-free的区域,并且与之前采用uniform bound的工作不同,本文采用non-uniform bound并且以之来作为神经网络模型的决策边界

LINK:https://arxiv.org/pdf/1903.06603v1.pdf

科研篇四:对抗样本20篇-ICML2019_第5张图片

三、其他角度谈对抗样本

有些论文是讨论对抗样本产生原因以及一些界限验证方面的工作。

3.1. First-Order Adversarial Vulnerability of Neural Networks and Input Dimension

本文探讨网络脆弱性梯度之间的关系,而且发现网络脆弱性不依赖于网络拓扑结构(network topology)。
科研篇四:对抗样本20篇-ICML2019_第6张图片

3.2.Adversarial examples from computational constraints

本文认为对抗样本产生的原因更多地不是因为信息理论的限制而是因为计算约束对抗样本很有可能由于学习算法的计算局限性而无法避免

LINK:https://arxiv.org/pdf/1805.10204v1.pdf

科研篇四:对抗样本20篇-ICML2019_第7张图片

你可能感兴趣的:(科研)