E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
对抗样本
FGM对抗训练
对抗样本
:对输入增加微小扰动得到的样本。旨在增加模型损失。对抗训练:训练模型去区分样例是真实样例还是
对抗样本
的过程。对抗训练不仅可以提升模型对
对抗样本
的防御能力,还能提升对原始样本的泛化能力。1、FG
Mr.奇
·
2023-01-02 13:06
大数据
【综述】NLP 对抗训练(FGM、PGD、FreeAT、YOPO、FreeLB、SMART)
在对抗训练中关键的是需要找到
对抗样本
,通常是对原始的输入添加一定的扰动来构造,然后放给模型训练,这样模型就有了识别
对抗样本
的能力。
大白羊_Aries
·
2023-01-02 13:06
MILVLG
自然语言处理
机器学习
深度学习
CVPR 2022 | LAS-AT: 基于可学习攻击策略的对抗训练新范式
该框架由一个使用
对抗样本
进行训练以提高鲁棒性的目标网络和一个产生攻击策略以控制
对抗样本
生成的策略网络组成。在不同数据集上的实验结果展现了LAS-AT的优越性。论文标题:
PaperWeekly
·
2023-01-02 13:04
NLP几种常用的对抗训练方法
对抗训练旨在对原始输入样本xxx上施加扰动radvr_{adv}radv,得到
对抗样本
后用其进行训练:公式理解:最大化扰
华师数据学院·王嘉宁
·
2023-01-02 13:03
深度学习
自然语言处理基础
自然语言处理
深度学习
机器学习
对抗训练
对抗样本
鲁棒性——频域角度A FREQUENCY PERSPECTIVE OF ADVERSARIAL ROBUSTNESS
摘要本文最核心的观点就是:
对抗样本
是高频噪声,这一个观点是一个误解。本文的分析表明,
对抗样本
既不是高频,也不是低频,而是依赖于数据集。预备知识首先本文是说明了一下DCT变换,以及
对抗样本
的基本公式。
Jhouery
·
2023-01-02 00:55
人工智能
安全
人工智能安全的若干研究课题
目录一、人工智能与安全1.1引言1.2若干安全问题二、深度学习即服务中的数据泄露2.1深度学习即服务(MLaaS)2.2MLaaS中的数据泄露问题2.3MLaaS服务提供者的防御方案三、
对抗样本
攻击3.1
违章洞悟
·
2023-01-02 00:55
密码学
图像分类中的对抗鲁棒性
攻击者的能力2.3攻击者的知识3.攻击与防御3.1攻击方法3.2防御4.评估方法4.1评价指标4.2评估数据集和算法5.评估结果5.1CIFAR-10的评估结果5.3讨论6.结论摘要深度神经网络容易受到
对抗样本
的攻击
qq_40021158
·
2023-01-02 00:54
2022.7.23可行AI会议记录-1(目前只有物理对抗部分)
可信AI会议记录物理世界下的智能对抗攻防来源背景挑战:
对抗样本
攻击数字世界攻击与物理世界攻击物理对抗研究问题主要挑战研究内容1:基于偏见的物理对抗方法研究内容2:基于注意力抑制的物理对抗攻击方法基于关键模式的对抗防御方法基于语音快速扰动的物理对抗攻击方法总结与展望物理世界下的智能对抗攻防来源背景近年来人工智能产业的快速发展带来了不小的安全隐患
spikes
·
2023-01-01 07:12
人工智能
web安全
#今日论文推荐# Fisher信息量在
对抗样本
中的应用
#今日论文推荐#Fisher信息量在
对抗样本
中的应用
对抗样本
对深度学习模型产生对抗行为的内部机理一直是一个研究热点,只有更好的理解其运作机理才能更好的对对抗攻击产生更有效的防御策略。
wwwsxn
·
2022-12-31 10:12
深度学习
transformer
深度学习
计算机视觉
对抗样本
(对抗攻击)入门
什么是
对抗样本
?从2013年开始,深度学习模型在多种应用上已经能达到甚至超过人类水平,比如人脸识别,物体识别,手写文字识别等等。在之前,机器在这些项目的准确率很低,如果机器识别出错了,没人会觉得奇怪。
小刘同学_
·
2022-12-31 10:38
机器学习
对抗样本
AI安全
Fisher信息量在
对抗样本
中的应用
1引言
对抗样本
对深度学习模型产生对抗行为的内部机理一直是一个研究热点,只有更好的理解其运作机理才能更好的对对抗攻击产生更有效的防御策略。
鬼道2022
·
2022-12-31 10:35
论文解读
机器学习
人工智能的鲁棒性分析
这种一般是指
对抗样本
攻击。攻击者通过白盒的方法了解模型架构和参数,使用梯度下降对输入数据进行扰动,并申城
对抗样本
。另外也可以
dirtyboy6666
·
2022-12-31 09:16
python
机器学习概念
人工智能
机器学习
BP反向传播矩阵推导图示详解
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成背景介绍BP(反向传播)是有GeffreyHinton在1988年发表的论文《Learningrepresentationsbyback-propagatingerrors
PaperWeekly
·
2022-12-30 17:37
神经网络
机器学习
人工智能
深度学习
计算机视觉
生成对抗网络(GAN)的数学原理全解
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成论文标题:AMathematicalIntroductiontoGenerativeAdversarialNets
PaperWeekly
·
2022-12-30 08:41
算法
计算机视觉
机器学习
人工智能
深度学习
对抗机器学习逐年火爆,成蓝海赛道|附6篇必刷论文
人脸
对抗样本
攻击的形式主要分为两种,数字图像的对抗攻击和物理形式的对抗攻击。物理
对抗样本
攻击在摄像头前发起,数字
对抗样本
则主要通过数据包劫持,将通过交互活体检测的真实人脸图像替换为数字人脸
对抗样本
图
夕小瑶
·
2022-12-29 19:51
高被引Top1团队综述:Adversarial Attacks and Defenses in Images, Graphs and Text: A Review【论文翻译】
然而,最近的研究表明,深度模型极容易被
对抗样本
攻击。人为稍微扰动模型的输入,可能导致模型给出完全相反的预测结果,从而出现差之毫厘、失之千里的错误。
honor、
·
2022-12-29 15:17
机器学习
神经网络
nlp
机器学习
pytorch
对抗样本
_对抗训练和
对抗样本
- huanghaocs的个人空间 - OSCHINA - 中文开源技术交流社区...
对抗训练分类模型:对已有图片训练模型并分类生成模型:分类模型的反向过程生成一张图片,从一个类别向量反向生成一张图片
对抗样本
对图片通过算法增加一些噪声,变成新的图片,新的图片人眼无法分辨出变化,但是机器能分辨出来而且还会判错类别
城闭喧
·
2022-12-28 13:25
pytorch
对抗样本
对抗网络学习-FGSM
对抗样本
生成
对抗样本
指的是一个经过微小调整就可以让机器学习算法输出错误结果的输入样本。
Vampont
·
2022-12-28 13:54
神经网络
机器学习
对抗样本
学习02-基于梯度的
对抗样本
生成算法
文章目录1.
对抗样本
生成原理2.实验与结果1.
对抗样本
生成原理使用快速梯度符号算法(FGSM:FastGradientSignMethod)生成
对抗样本
用原始图像初始化
对抗样本
,通过损失函数计算梯度,根据
七月的和弦
·
2022-12-28 13:24
对抗样本
学习
算法
python
对抗样本
基于优化的
对抗样本
生成算法
参考书籍:AI安全之
对抗样本
入门深度学习在训练过程中,通过计算样本的预测值与真实值之间的损失函数,之后在反向传递的过程中通过链式法则调整模型的参数,不断减小损失函数的值,迭代计算出模型的各层参数。
cqy不是cqy
·
2022-12-28 13:24
神经网络
神经网络
深度学习
暴力的黑盒
对抗样本
攻击 -- ZOO
ZerothOrderOptimizationBasedBlack-boxAttackstoDeepNeuralNetworkswithoutTrainingSubstituteModels”这是一个黑盒的
对抗样本
攻击
MezereonXP
·
2022-12-28 13:23
模型安全
深度学习
算法
机器学习
深度学习
人工智能
对抗样本
生成算法之FGSM算法
目录背景原理论文Explainingandharnessingadversarialexamples.这篇论文由Goodfellow等人发表在ICLR2015会议上,是
对抗样本
领域的经典论文。
学-evday
·
2022-12-28 13:20
对抗样本
深度学习
对抗样本
学习01-基于优化的
对抗样本
生成算法
1.生成
对抗样本
的原理深度学习网络训练,网络参数是被优化的参数,数据是固定的,发生变化的是网络生成
对抗样本
,
对抗样本
是被优化的参数,网络是固定的,发生变化的数据Howtodo?
七月的和弦
·
2022-12-28 13:48
对抗样本
学习
人工智能
对抗样本
【迁移攻击笔记】Curls & Whey: Boosting Black-Box Adversarial Attacks
①Curls迭代:梯度下降/上升方向+二分法优化+varience-reduced优化其中,(12)记录先前的对抗以对当前方向产生影响:(15)为二分法,比较简单:②Whey优化:将Curls找出的最优
对抗样本
中的元素按大小排列
少年芒果君
·
2022-12-27 09:34
像素攻击
算法
python
对抗攻击
人工智能和安全方向专业英语词汇论文摘录
Self-attentionArtificialNeuralNetworks:人工神经网络AdversarialNetwork:对抗网络adversarialexamples:对抗例子adversarialsamples:
对抗样本
mossfan
·
2022-12-26 08:54
专业知识
人工智能
安全
机器学习
网络空间
科研篇四:
对抗样本
20篇-ICML2019
文章目录一、对抗攻击(AdversarialAttack)1.1.AdversarialAttacksonNodeEmbeddingsviaGraphPoisoning1.2.Adversarialcamerastickers:Aphysicalcamera-basedattackondeeplearningsystems二、对抗防御2.1.UsingPre-TrainingCanImproveM
Leeyegy
·
2022-12-26 00:49
科研
对抗样本
保存中遇到坑(1)
从暑假开始就一直在尝试保存图片,奈何没有图像基础,尝试几天后放弃了,想着到学校后能不能问一问,开学后一直在读论文也没动手,寒假回到家开始跑实验了,而
对抗样本
代码整合还是不好做的,唯一好做的我认为应该是收集足够的
对抗样本
做实验
凉茶i
·
2022-12-23 21:55
pytorch
深度学习
python
对抗样本
遇到的坑(2)
1、保存时的代码问题经过(1)的坑后,本以为没问题了,还特进行了封装,最后保存的图片如下:乍一看好像没什么问题(左边为原图,右边为生成的
对抗样本
),经过细致的Debug发现问题很大,首先原图显式的是经过归一化后的结果
凉茶i
·
2022-12-23 21:55
深度学习
计算机视觉
神经网络
如何用一束激光欺骗神经网络
来自于CVPR2021的一篇文章"AdversarialLaserBeam:EffectivePhysical-WorldAttacktoDNNsinaBlink"这一个在物理世界的
对抗样本
攻击,以图像分类任务为例
MezereonXP
·
2022-12-23 21:23
模型安全
深度学习
机器学习
深度学习
安全
对抗样本
AdvDrop——一种通过丢弃频域信息的
对抗样本
参考代码AdvDrop参考代码
对抗样本
:在原始样本添加一些人眼无法察觉的扰动(这样的扰动不会影响人类的识别,但是却很容易愚弄模型),致使深度学习模型做出错误的判断。
AuroraGengi
·
2022-12-23 21:52
深度学习
生成对抗网络
安全
论文那些事—AdvDrop: Adversarial Attack to DNNs by Dropping Information
AdvDrop:通过丢弃信息生成
对抗样本
去攻击DNN(ICCV2021)1、摘要\背景人有很强的抽象能力和联想力,例如一个由几块积木拼成的乐高玩具,小朋友也能轻易认出其中描述的场景。
凉茶i
·
2022-12-23 21:21
深度学习
计算机视觉
人工智能
为什么AI需要可解释性
如果神经网络能够确保给出准确的结果,那么使用人类无法理解的方式也无可厚非,但是事实上它并不能确保,例如一些
对抗样本
就会使它出现令人哭笑不得的错误。对
Channing Lewis
·
2022-12-22 19:54
AI
人工智能
神经网络
对抗样本
改善图像分类性能
近年来,关于
对抗样本
的研究层出不穷,但是鲜有利用
对抗样本
提升图像分类性能的研究。
算法黑哥
·
2022-12-20 21:18
对抗学习
分类
深度学习
Focal Loss——挖掘困难样本,用于
对抗样本
不平衡
Focalloss我觉得直观感觉的话还是比较简单的,其实就是,增大Loss大的样本对梯度的贡献来看一个对比,下面这个是交叉熵损失函数,其中ti是第i个样本xi的target,pi是模型预测xi属于类i的概率Focalloss形式如下:忽略掉了Focal中加入的classweight,它是用来解决样本不平衡的,在这里不重要,是一个超参数。它对CELoss加了一个优化,能够使得HardSample对l
量化橙同学
·
2022-12-20 13:52
数学
做个人吧
深度学习
论文那些事—Towards Evaluating the Robustnessof Neural Networks
这种防御方法通常用于任何前馈神经网络,只需要一个单独的训练步骤,就能够防御当前所存在的
对抗样本
。本文作者对防御性的蒸馏网络提出了挑
凉茶i
·
2022-12-19 18:33
神经网络
深度学习
pytorch
Towards Evaluating the Robustness of Neural Networks(翻译,侵删)
不幸的是,深度网络容易受到
对抗样本
攻击:给定一个输入xxx和任何类别ttt,有可能找到一个新的输入x′x^\prim
turb_csdn
·
2022-12-19 18:29
Examples)
神经网络
深度学习
计算机视觉
python
算法
2020CVPR
对抗样本
相关论文整理(无开源代码)
目录攻击防御攻击1.PolishingDecision-BasedAdversarialNoiseWithaCustomizedSampling.《通过自定义采样产生基于决策的对抗性噪声》作为有效的黑盒对抗攻击,基于决策的方法通过查询目标模型来消除对抗噪声。其中,边界攻击由于其强大的噪声压缩能力而被广泛应用,尤其是与基于传输的方法结合使用时。边界攻击将噪声压缩分为几个独立的采样过程,并以恒定的采样
学-evday
·
2022-12-17 06:26
对抗样本
神经网络
CS231n 笔记- 对抗模型和对抗训练
目录
对抗样本
案例对抗干扰是系统性问题对抗干扰是欠拟合构造
对抗样本
对抗样本
的迁移率现实中的应用防御对抗训练VirtualAdversarialTraining总结
对抗样本
案例大熊猫的图像加上微小的扰动,人眼看不出来区别
iwill323
·
2022-12-16 18:45
CS231n笔记
servlet
java
html
可解释性机器学习task01-预备知识
为什么要学可解释性的一些交叉研究方向MachineTeaching细粒度图像分类AI安全/
对抗样本
前沿AI方向本身具有可解释性的学习一些可解释性分析方法可解释性与模型性能可解释算法分类深度学习的可解释性分析
GUSONGEN
·
2022-12-15 19:29
人工智能
计算机视觉
一文详解Wassertein距离
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成引言WGAN的横空出世引出了一个更好度量两个概率分布差异的指标即Wassertein距离(或叫做推土机距离
PaperWeekly
·
2022-12-15 14:26
人工智能
机器学习
深度学习
bmp
hierarchy
GAN 系列的探索与pytorch实现 (数字
对抗样本
生成)
GAN系列的探索与pytorch实现(数字
对抗样本
生成)文章目录GAN系列的探索与pytorch实现(数字
对抗样本
生成)GAN的简单介绍生成对抗网络GAN的基本原理大白话版本非大白话版本数字
对抗样本
产生步骤
风信子的猫Redamancy
·
2022-12-14 14:30
机器学习Machine
Learning
GAN
pytorch
生成对抗网络
数字对抗样本
深度学习
解决对一个对象多次BP更新时造成的RuntimeError: you can only change requires_grad flags of leaf variables.问题
环境:PyTorch1.7.1问题描述:在生成
对抗样本
的情境中,常常需要对一个对象(比如对抗扰动)进行多次的反向传播更新,例如下述代码段:defattack_update(self,perturbation
YulongYang1896
·
2022-12-14 13:24
PyTorch
pytorch
深度学习
神经网络
深度学习与
对抗样本
1、深度学习的概念深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。同机器学习方法一样,深度学习方法也有监督学习
zhejiangjjw
·
2022-12-13 02:35
深度学习及其安全
机器学习
[论文笔记]UNDERSTANDING AND ENHANCING THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES
研究背景在对抗攻击中,
对抗样本
可迁移性是人们关注的一个点。黑盒攻击的成功率一直不高,这背后的攻击机制需要探索,并且需要改进攻击效果。
study0098
·
2022-12-13 02:05
深度学习
对抗攻击
可解释性
2019CVPR有关
对抗样本
的论文总结(防御篇一)
目录一、特征图去噪二、PNI参数噪声注入三、输入多样性一、特征图去噪2019CVPR-FeatureDenoisingforImprovingAdversarialRobustness.特征去噪提高对抗鲁棒性背景通过将对抗性图像(adversarialimage)的特征图(FeatureMap)和原始图像(cleanimage)的特征图进行可视化对比,发现,对抗性图像的特征图存在着非常多的无关噪声
学-evday
·
2022-12-13 02:34
对抗样本
机器学习
人工智能
AMT-GAN 人脸
对抗样本
CVPR2022
CVPR2022ProtectingFacialPrivacy:GeneratingAdversarialIdentityMasksviaStyle-robustMakeupTransfer原文链接:https://openaccess.thecvf.com/content/CVPR2022/papers/Hu_Protecting_Facial_Privacy_Generating_Advers
mmjx2018
·
2022-12-13 02:34
生成对抗网络
计算机视觉
人工智能
为可迁移对抗性攻击训练元代理模型
在当前大量的研究中,许多方法直接攻击代理模型并获得的可迁移性的
对抗样本
我爱计算机视觉
·
2022-12-13 02:34
算法
python
机器学习
人工智能
深度学习
对抗样本
(三)FGSM
文章目录一、论文相关信息 1.论文题目 2.论文时间 3.论文文献二、论文背景及简介三、论文内容总结四、论文主要内容1、Introducttion2、ReleatedWork3、TheLinearExplanationOfAdversarialExamples4、LinearPerturbationofNon-LinearModels5、AdversarialTrainingOfLinear
Bai丁
·
2022-12-13 02:04
对抗样本
FGSM
深度学习
对抗样本
的防御方法
作者:19届lz论文:《深度学习
对抗样本
的防御方法综述》问题2013年,Szegedy等人[1]首先通过添加轻微扰动来干扰输入样本,使基于深度神经网络(Deepneuralnetwork,DNN)的图片识别系统输出攻击者想要的任意错误结果
中南大学苹果实验室
·
2022-12-13 02:04
lz读论文的日子(GAN)
深度学习
神经网络
人工智能
从数据分布的角度提高
对抗样本
的可迁移性
1引言 对抗迁移性攻击一般是先通过代理模型生成
对抗样本
,然后将该样本迁移到其它黑盒模型中进行攻击,对抗迁移性的根本原因目前仍有待于探究。
鬼道2022
·
2022-12-13 02:03
论文解读
深度学习
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他