论文阅读——DaST: Data-free Substitute Training for Adversarial Attacks

摘要

对于黑盒设置,当前的替代战术需要预先训练的模型来生成对抗样本。然而,在现实世界的任务中很难获得预先训练的模型。本文提出了一种无数据替代训练方法(DaST),在不需要任何真实数据的情况下获得对抗黑箱攻击的替代模型。作者针对generative moddel设计了一个multi-branch 结构和label-control loss来解决合成样本分布不均匀的问题

缺陷

替代模型仅针对与某一特定的目标模型
仍需访问目标模型的输出或输出概率分布
训练生成器查询量必定很大

相关性工作
攻击方法主要分为两类:黑盒攻击和白盒攻击。
黑盒攻击主又可分为基于分数的攻击和基于决策的攻击利用被攻击模型返回的类概率或硬标签直接攻击被攻击模型。这些攻击方法不需要预先训练的替代模型,但是作为代价,它们需要对被攻击模型进行大量查询来生成每次攻击。

方案

使用生成网络构造替代模型的数据集,因此可在训练替代模型时不需要数据

(1)生成器损失
论文阅读——DaST: Data-free Substitute Training for Adversarial Attacks_第1张图片
其中,在这里插入图片描述

(2)替代模型损失
在这里插入图片描述

(3)生成网络训练算法

论文阅读——DaST: Data-free Substitute Training for Adversarial Attacks_第2张图片
疑问:

z是什么?如何取值?

对比的模型为什么全是白盒攻击?

你可能感兴趣的:(神经网络,深度学习,机器学习)