E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
对抗样本反制
Fisher信息量检测
对抗样本
代码详解
1引言 在上一篇《Fisher信息量在
对抗样本
中的应用》中详尽地阐述了Fisher信息量在对抗攻击,防御,以及检测中的应用,并解析了三篇具有代表性的论文。
鬼道2022
·
2023-01-13 21:42
论文解读
深度学习
机器学习
深度学习
NLP中的对抗训练
对抗训练定义对抗训练是一种引入噪声的训练方式,可以对参数进行正则化,提升模型鲁棒性和泛化能力1.1对抗训练特点相对于原始输入,所添加的扰动是微小的添加的噪声可以使得模型预测错误1.2对抗训练的基本概念就是在原始输入样本x上加上一个扰动Δx得到
对抗样本
sunghosts
·
2023-01-13 08:45
NLP
自然语言处理
深度学习
用神经声码器进行说话人验证的
对抗样本
检测
ADVERSARIALSAMPLEDETECTIONFORSPEAKERVERIFICATIONBYNEURALVOCODERS摘要ASV任务最近经常受到对抗性攻击,对应的举措是有限的;本文采用神经声码器来检测
对抗样本
深海的银
·
2023-01-12 13:49
ICASSP
2022
深度学习
GAN一点都不鲁棒?清华学霸们赢得NIPS攻防赛3项冠军的绝招在这里!
本文介绍了如何用
对抗样本
修改图片,误导神经网络指鹿为马;对NIPS2017神经网络对抗攻防赛3项冠军清华团队的算法模型进行了解读。
weixin_34054866
·
2023-01-12 08:07
人工智能
数据结构与算法
嵌入式
华为开源自研AI框架昇思MindSpore应用实践:FGSM网络对抗攻击
目录一、环境准备1.进入ModelArts官网2.使用CodeLab体验Notebook实例二、
对抗样本
定义三、攻击方法快速梯度符号攻击(FGSM)四、数据处理五、训练LeNet网络六、实现FGSM七、
Yeats_Liao
·
2023-01-12 08:36
Huawei
Cloud
人工智能
网络
神经网络太好骗?清华团队如何做到打NIPS攻防赛得3冠军的
文章介绍了如何用
对抗样本
修改图片,误导神经网络指鹿为马;对NIPS2017神经网络对抗攻防赛3项冠军清华团队的算法模型进行了解读。
csdn人工智能头条
·
2023-01-12 08:36
Python记录 tensor求梯度时为None的错误
今天学习
对抗样本
,需要对tensor求梯度,x1,x2,label=datax1.requires_grad=Truex2.requires_grad=Trueifuse_gpu:x1=x1.cuda(
鲤鱼江
·
2023-01-10 07:36
python
深度学习
人工智能
[paper]Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks
本文提出了一个防御算法,在不改变深度神经网络的结构并且在尽可能小的影响模型准确率的前提下能够有效地抵御
对抗样本
的攻击。
ch1762
·
2023-01-05 16:55
AEs
机器学习
神经网络
亚马逊出品:非均匀扰动的对抗鲁棒性理论分析
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成引言该论文是关于对抗训练的理论性的文章。
PaperWeekly
·
2023-01-03 13:22
协方差
深度学习
机器学习
人工智能
计算机视觉
BERT模型—6.对抗训练原理与代码实现
文章目录引言一、对抗训练一般原理1.
对抗样本
二、对抗训练的经典算法三、对抗训练代码实现1.FGM2.PGD引言 对抗训练对于NLP来说,是一种非常好的上分利器,所以,非常有必要加深对对抗训练的认识。
哎呦-_-不错
·
2023-01-02 13:07
#
bert模型学习
BERT模型
对抗训练
代码实现
FGM对抗训练
对抗样本
:对输入增加微小扰动得到的样本。旨在增加模型损失。对抗训练:训练模型去区分样例是真实样例还是
对抗样本
的过程。对抗训练不仅可以提升模型对
对抗样本
的防御能力,还能提升对原始样本的泛化能力。1、FG
Mr.奇
·
2023-01-02 13:06
大数据
【综述】NLP 对抗训练(FGM、PGD、FreeAT、YOPO、FreeLB、SMART)
在对抗训练中关键的是需要找到
对抗样本
,通常是对原始的输入添加一定的扰动来构造,然后放给模型训练,这样模型就有了识别
对抗样本
的能力。
大白羊_Aries
·
2023-01-02 13:06
MILVLG
自然语言处理
机器学习
深度学习
CVPR 2022 | LAS-AT: 基于可学习攻击策略的对抗训练新范式
该框架由一个使用
对抗样本
进行训练以提高鲁棒性的目标网络和一个产生攻击策略以控制
对抗样本
生成的策略网络组成。在不同数据集上的实验结果展现了LAS-AT的优越性。论文标题:
PaperWeekly
·
2023-01-02 13:04
NLP几种常用的对抗训练方法
对抗训练旨在对原始输入样本xxx上施加扰动radvr_{adv}radv,得到
对抗样本
后用其进行训练:公式理解:最大化扰
华师数据学院·王嘉宁
·
2023-01-02 13:03
深度学习
自然语言处理基础
自然语言处理
深度学习
机器学习
对抗训练
对抗样本
鲁棒性——频域角度A FREQUENCY PERSPECTIVE OF ADVERSARIAL ROBUSTNESS
摘要本文最核心的观点就是:
对抗样本
是高频噪声,这一个观点是一个误解。本文的分析表明,
对抗样本
既不是高频,也不是低频,而是依赖于数据集。预备知识首先本文是说明了一下DCT变换,以及
对抗样本
的基本公式。
Jhouery
·
2023-01-02 00:55
人工智能
安全
人工智能安全的若干研究课题
目录一、人工智能与安全1.1引言1.2若干安全问题二、深度学习即服务中的数据泄露2.1深度学习即服务(MLaaS)2.2MLaaS中的数据泄露问题2.3MLaaS服务提供者的防御方案三、
对抗样本
攻击3.1
违章洞悟
·
2023-01-02 00:55
密码学
图像分类中的对抗鲁棒性
攻击者的能力2.3攻击者的知识3.攻击与防御3.1攻击方法3.2防御4.评估方法4.1评价指标4.2评估数据集和算法5.评估结果5.1CIFAR-10的评估结果5.3讨论6.结论摘要深度神经网络容易受到
对抗样本
的攻击
qq_40021158
·
2023-01-02 00:54
2022.7.23可行AI会议记录-1(目前只有物理对抗部分)
可信AI会议记录物理世界下的智能对抗攻防来源背景挑战:
对抗样本
攻击数字世界攻击与物理世界攻击物理对抗研究问题主要挑战研究内容1:基于偏见的物理对抗方法研究内容2:基于注意力抑制的物理对抗攻击方法基于关键模式的对抗防御方法基于语音快速扰动的物理对抗攻击方法总结与展望物理世界下的智能对抗攻防来源背景近年来人工智能产业的快速发展带来了不小的安全隐患
spikes
·
2023-01-01 07:12
人工智能
web安全
#今日论文推荐# Fisher信息量在
对抗样本
中的应用
#今日论文推荐#Fisher信息量在
对抗样本
中的应用
对抗样本
对深度学习模型产生对抗行为的内部机理一直是一个研究热点,只有更好的理解其运作机理才能更好的对对抗攻击产生更有效的防御策略。
wwwsxn
·
2022-12-31 10:12
深度学习
transformer
深度学习
计算机视觉
对抗样本
(对抗攻击)入门
什么是
对抗样本
?从2013年开始,深度学习模型在多种应用上已经能达到甚至超过人类水平,比如人脸识别,物体识别,手写文字识别等等。在之前,机器在这些项目的准确率很低,如果机器识别出错了,没人会觉得奇怪。
小刘同学_
·
2022-12-31 10:38
机器学习
对抗样本
AI安全
Fisher信息量在
对抗样本
中的应用
1引言
对抗样本
对深度学习模型产生对抗行为的内部机理一直是一个研究热点,只有更好的理解其运作机理才能更好的对对抗攻击产生更有效的防御策略。
鬼道2022
·
2022-12-31 10:35
论文解读
机器学习
人工智能的鲁棒性分析
这种一般是指
对抗样本
攻击。攻击者通过白盒的方法了解模型架构和参数,使用梯度下降对输入数据进行扰动,并申城
对抗样本
。另外也可以
dirtyboy6666
·
2022-12-31 09:16
python
机器学习概念
人工智能
机器学习
BP反向传播矩阵推导图示详解
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成背景介绍BP(反向传播)是有GeffreyHinton在1988年发表的论文《Learningrepresentationsbyback-propagatingerrors
PaperWeekly
·
2022-12-30 17:37
神经网络
机器学习
人工智能
深度学习
计算机视觉
生成对抗网络(GAN)的数学原理全解
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成论文标题:AMathematicalIntroductiontoGenerativeAdversarialNets
PaperWeekly
·
2022-12-30 08:41
算法
计算机视觉
机器学习
人工智能
深度学习
对抗机器学习逐年火爆,成蓝海赛道|附6篇必刷论文
人脸
对抗样本
攻击的形式主要分为两种,数字图像的对抗攻击和物理形式的对抗攻击。物理
对抗样本
攻击在摄像头前发起,数字
对抗样本
则主要通过数据包劫持,将通过交互活体检测的真实人脸图像替换为数字人脸
对抗样本
图
夕小瑶
·
2022-12-29 19:51
高被引Top1团队综述:Adversarial Attacks and Defenses in Images, Graphs and Text: A Review【论文翻译】
然而,最近的研究表明,深度模型极容易被
对抗样本
攻击。人为稍微扰动模型的输入,可能导致模型给出完全相反的预测结果,从而出现差之毫厘、失之千里的错误。
honor、
·
2022-12-29 15:17
机器学习
神经网络
nlp
机器学习
pytorch
对抗样本
_对抗训练和
对抗样本
- huanghaocs的个人空间 - OSCHINA - 中文开源技术交流社区...
对抗训练分类模型:对已有图片训练模型并分类生成模型:分类模型的反向过程生成一张图片,从一个类别向量反向生成一张图片
对抗样本
对图片通过算法增加一些噪声,变成新的图片,新的图片人眼无法分辨出变化,但是机器能分辨出来而且还会判错类别
城闭喧
·
2022-12-28 13:25
pytorch
对抗样本
对抗网络学习-FGSM
对抗样本
生成
对抗样本
指的是一个经过微小调整就可以让机器学习算法输出错误结果的输入样本。
Vampont
·
2022-12-28 13:54
神经网络
机器学习
对抗样本
学习02-基于梯度的
对抗样本
生成算法
文章目录1.
对抗样本
生成原理2.实验与结果1.
对抗样本
生成原理使用快速梯度符号算法(FGSM:FastGradientSignMethod)生成
对抗样本
用原始图像初始化
对抗样本
,通过损失函数计算梯度,根据
七月的和弦
·
2022-12-28 13:24
对抗样本
学习
算法
python
对抗样本
基于优化的
对抗样本
生成算法
参考书籍:AI安全之
对抗样本
入门深度学习在训练过程中,通过计算样本的预测值与真实值之间的损失函数,之后在反向传递的过程中通过链式法则调整模型的参数,不断减小损失函数的值,迭代计算出模型的各层参数。
cqy不是cqy
·
2022-12-28 13:24
神经网络
神经网络
深度学习
暴力的黑盒
对抗样本
攻击 -- ZOO
ZerothOrderOptimizationBasedBlack-boxAttackstoDeepNeuralNetworkswithoutTrainingSubstituteModels”这是一个黑盒的
对抗样本
攻击
MezereonXP
·
2022-12-28 13:23
模型安全
深度学习
算法
机器学习
深度学习
人工智能
对抗样本
生成算法之FGSM算法
目录背景原理论文Explainingandharnessingadversarialexamples.这篇论文由Goodfellow等人发表在ICLR2015会议上,是
对抗样本
领域的经典论文。
学-evday
·
2022-12-28 13:20
对抗样本
深度学习
对抗样本
学习01-基于优化的
对抗样本
生成算法
1.生成
对抗样本
的原理深度学习网络训练,网络参数是被优化的参数,数据是固定的,发生变化的是网络生成
对抗样本
,
对抗样本
是被优化的参数,网络是固定的,发生变化的数据Howtodo?
七月的和弦
·
2022-12-28 13:48
对抗样本
学习
人工智能
对抗样本
【迁移攻击笔记】Curls & Whey: Boosting Black-Box Adversarial Attacks
①Curls迭代:梯度下降/上升方向+二分法优化+varience-reduced优化其中,(12)记录先前的对抗以对当前方向产生影响:(15)为二分法,比较简单:②Whey优化:将Curls找出的最优
对抗样本
中的元素按大小排列
少年芒果君
·
2022-12-27 09:34
像素攻击
算法
python
对抗攻击
人工智能和安全方向专业英语词汇论文摘录
Self-attentionArtificialNeuralNetworks:人工神经网络AdversarialNetwork:对抗网络adversarialexamples:对抗例子adversarialsamples:
对抗样本
mossfan
·
2022-12-26 08:54
专业知识
人工智能
安全
机器学习
网络空间
科研篇四:
对抗样本
20篇-ICML2019
文章目录一、对抗攻击(AdversarialAttack)1.1.AdversarialAttacksonNodeEmbeddingsviaGraphPoisoning1.2.Adversarialcamerastickers:Aphysicalcamera-basedattackondeeplearningsystems二、对抗防御2.1.UsingPre-TrainingCanImproveM
Leeyegy
·
2022-12-26 00:49
科研
对抗样本
保存中遇到坑(1)
从暑假开始就一直在尝试保存图片,奈何没有图像基础,尝试几天后放弃了,想着到学校后能不能问一问,开学后一直在读论文也没动手,寒假回到家开始跑实验了,而
对抗样本
代码整合还是不好做的,唯一好做的我认为应该是收集足够的
对抗样本
做实验
凉茶i
·
2022-12-23 21:55
pytorch
深度学习
python
对抗样本
遇到的坑(2)
1、保存时的代码问题经过(1)的坑后,本以为没问题了,还特进行了封装,最后保存的图片如下:乍一看好像没什么问题(左边为原图,右边为生成的
对抗样本
),经过细致的Debug发现问题很大,首先原图显式的是经过归一化后的结果
凉茶i
·
2022-12-23 21:55
深度学习
计算机视觉
神经网络
如何用一束激光欺骗神经网络
来自于CVPR2021的一篇文章"AdversarialLaserBeam:EffectivePhysical-WorldAttacktoDNNsinaBlink"这一个在物理世界的
对抗样本
攻击,以图像分类任务为例
MezereonXP
·
2022-12-23 21:23
模型安全
深度学习
机器学习
深度学习
安全
对抗样本
AdvDrop——一种通过丢弃频域信息的
对抗样本
参考代码AdvDrop参考代码
对抗样本
:在原始样本添加一些人眼无法察觉的扰动(这样的扰动不会影响人类的识别,但是却很容易愚弄模型),致使深度学习模型做出错误的判断。
AuroraGengi
·
2022-12-23 21:52
深度学习
生成对抗网络
安全
论文那些事—AdvDrop: Adversarial Attack to DNNs by Dropping Information
AdvDrop:通过丢弃信息生成
对抗样本
去攻击DNN(ICCV2021)1、摘要\背景人有很强的抽象能力和联想力,例如一个由几块积木拼成的乐高玩具,小朋友也能轻易认出其中描述的场景。
凉茶i
·
2022-12-23 21:21
深度学习
计算机视觉
人工智能
为什么AI需要可解释性
如果神经网络能够确保给出准确的结果,那么使用人类无法理解的方式也无可厚非,但是事实上它并不能确保,例如一些
对抗样本
就会使它出现令人哭笑不得的错误。对
Channing Lewis
·
2022-12-22 19:54
AI
人工智能
神经网络
对抗样本
改善图像分类性能
近年来,关于
对抗样本
的研究层出不穷,但是鲜有利用
对抗样本
提升图像分类性能的研究。
算法黑哥
·
2022-12-20 21:18
对抗学习
分类
深度学习
Focal Loss——挖掘困难样本,用于
对抗样本
不平衡
Focalloss我觉得直观感觉的话还是比较简单的,其实就是,增大Loss大的样本对梯度的贡献来看一个对比,下面这个是交叉熵损失函数,其中ti是第i个样本xi的target,pi是模型预测xi属于类i的概率Focalloss形式如下:忽略掉了Focal中加入的classweight,它是用来解决样本不平衡的,在这里不重要,是一个超参数。它对CELoss加了一个优化,能够使得HardSample对l
量化橙同学
·
2022-12-20 13:52
数学
做个人吧
深度学习
论文那些事—Towards Evaluating the Robustnessof Neural Networks
这种防御方法通常用于任何前馈神经网络,只需要一个单独的训练步骤,就能够防御当前所存在的
对抗样本
。本文作者对防御性的蒸馏网络提出了挑
凉茶i
·
2022-12-19 18:33
神经网络
深度学习
pytorch
Towards Evaluating the Robustness of Neural Networks(翻译,侵删)
不幸的是,深度网络容易受到
对抗样本
攻击:给定一个输入xxx和任何类别ttt,有可能找到一个新的输入x′x^\prim
turb_csdn
·
2022-12-19 18:29
Examples)
神经网络
深度学习
计算机视觉
python
算法
2020CVPR
对抗样本
相关论文整理(无开源代码)
目录攻击防御攻击1.PolishingDecision-BasedAdversarialNoiseWithaCustomizedSampling.《通过自定义采样产生基于决策的对抗性噪声》作为有效的黑盒对抗攻击,基于决策的方法通过查询目标模型来消除对抗噪声。其中,边界攻击由于其强大的噪声压缩能力而被广泛应用,尤其是与基于传输的方法结合使用时。边界攻击将噪声压缩分为几个独立的采样过程,并以恒定的采样
学-evday
·
2022-12-17 06:26
对抗样本
神经网络
CS231n 笔记- 对抗模型和对抗训练
目录
对抗样本
案例对抗干扰是系统性问题对抗干扰是欠拟合构造
对抗样本
对抗样本
的迁移率现实中的应用防御对抗训练VirtualAdversarialTraining总结
对抗样本
案例大熊猫的图像加上微小的扰动,人眼看不出来区别
iwill323
·
2022-12-16 18:45
CS231n笔记
servlet
java
html
可解释性机器学习task01-预备知识
为什么要学可解释性的一些交叉研究方向MachineTeaching细粒度图像分类AI安全/
对抗样本
前沿AI方向本身具有可解释性的学习一些可解释性分析方法可解释性与模型性能可解释算法分类深度学习的可解释性分析
GUSONGEN
·
2022-12-15 19:29
人工智能
计算机视觉
一文详解Wassertein距离
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成引言WGAN的横空出世引出了一个更好度量两个概率分布差异的指标即Wassertein距离(或叫做推土机距离
PaperWeekly
·
2022-12-15 14:26
人工智能
机器学习
深度学习
bmp
hierarchy
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他