Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记
ProceduralNoiseAdversarialExamplesforBlack-BoxAttacksonDeepNeuralNetworks论文笔记0.概述如今一些深度神经网络对于一些对抗性样本(Adversarialsample)是弱势的,对抗性样本就是指我们对输入进行特定的改变,通过原有的学习算法最终导致整个网络内部出现误差,这属于攻击的一种,然而,现在的攻击都是要么计算代价特别大,要么