FGSM算法学习笔记

FGSM (Fast Gradient Sign Method)
出处:Explaining and Harnessing adversarial examples
类型:白盒攻击
核心思想:沿着深度学习模型的梯度方向添加图像扰动,使损失函数增大,导致模型进行错误的分类。
观点:高维空间下的线性行为足以产生对抗样本。

x ~ = x + η η = ε s i g n ( ▽ x J ( θ , x , y ) ) \tilde{x}=x+\eta\\ \eta =\varepsilon sign\left ( \bigtriangledown _{x}J \left ( \theta,x,y \right ) \right ) x~=x+ηη=εsign(xJ(θ,x,y))

x x x:原始图像
η \eta η:扰动
θ \theta θ:模型参数
J ( θ , x , y ) J \left ( \theta,x,y \right ) J(θ,x,y):损失函数
s i g n sign sign:符号函数
sign函数保证了扰动方向与梯度方向一致;对损失函数求偏导,即得到权值向量ω有关的函数( η = s i g n ( w ) \eta=sign(w) η=sign(w))。

代码:CleverHans工具箱
cleverhans-master\cleverhans_tutorials\mnist_tutorial_tf.py

参考资料:
[1] FGSM学习笔记

你可能感兴趣的:(AI对抗攻击)