对抗攻击经典论文——FGSM学习笔记 EXPLAINING AND HARNESSING ADVERSARIAL EXAMPLES
论文下载:ExplainingandHarnessingAdversarialExamples1摘要几种机器学习模型,包括神经网络,一致地将对抗样本误分类——通过对数据集样本添加细微而刻意的扰动形成的输入,会导致模型以较高的置信度输出错误的结果。早期尝试解释这种现象时会专注于非线性和过拟合。但我们认为,造成神经网络在面对对抗扰动时的脆弱性的主要原因正是它们的线性特性。这种解释得到了新的定量结果的支