E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
对抗样本反制
GAN 系列的探索与pytorch实现 (数字
对抗样本
生成)
GAN系列的探索与pytorch实现(数字
对抗样本
生成)文章目录GAN系列的探索与pytorch实现(数字
对抗样本
生成)GAN的简单介绍生成对抗网络GAN的基本原理大白话版本非大白话版本数字
对抗样本
产生步骤
风信子的猫Redamancy
·
2022-12-14 14:30
机器学习Machine
Learning
GAN
pytorch
生成对抗网络
数字对抗样本
深度学习
解决对一个对象多次BP更新时造成的RuntimeError: you can only change requires_grad flags of leaf variables.问题
环境:PyTorch1.7.1问题描述:在生成
对抗样本
的情境中,常常需要对一个对象(比如对抗扰动)进行多次的反向传播更新,例如下述代码段:defattack_update(self,perturbation
YulongYang1896
·
2022-12-14 13:24
PyTorch
pytorch
深度学习
神经网络
深度学习与
对抗样本
1、深度学习的概念深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。同机器学习方法一样,深度学习方法也有监督学习
zhejiangjjw
·
2022-12-13 02:35
深度学习及其安全
机器学习
[论文笔记]UNDERSTANDING AND ENHANCING THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES
研究背景在对抗攻击中,
对抗样本
可迁移性是人们关注的一个点。黑盒攻击的成功率一直不高,这背后的攻击机制需要探索,并且需要改进攻击效果。
study0098
·
2022-12-13 02:05
深度学习
对抗攻击
可解释性
2019CVPR有关
对抗样本
的论文总结(防御篇一)
目录一、特征图去噪二、PNI参数噪声注入三、输入多样性一、特征图去噪2019CVPR-FeatureDenoisingforImprovingAdversarialRobustness.特征去噪提高对抗鲁棒性背景通过将对抗性图像(adversarialimage)的特征图(FeatureMap)和原始图像(cleanimage)的特征图进行可视化对比,发现,对抗性图像的特征图存在着非常多的无关噪声
学-evday
·
2022-12-13 02:34
对抗样本
机器学习
人工智能
AMT-GAN 人脸
对抗样本
CVPR2022
CVPR2022ProtectingFacialPrivacy:GeneratingAdversarialIdentityMasksviaStyle-robustMakeupTransfer原文链接:https://openaccess.thecvf.com/content/CVPR2022/papers/Hu_Protecting_Facial_Privacy_Generating_Advers
mmjx2018
·
2022-12-13 02:34
生成对抗网络
计算机视觉
人工智能
为可迁移对抗性攻击训练元代理模型
在当前大量的研究中,许多方法直接攻击代理模型并获得的可迁移性的
对抗样本
我爱计算机视觉
·
2022-12-13 02:34
算法
python
机器学习
人工智能
深度学习
对抗样本
(三)FGSM
文章目录一、论文相关信息 1.论文题目 2.论文时间 3.论文文献二、论文背景及简介三、论文内容总结四、论文主要内容1、Introducttion2、ReleatedWork3、TheLinearExplanationOfAdversarialExamples4、LinearPerturbationofNon-LinearModels5、AdversarialTrainingOfLinear
Bai丁
·
2022-12-13 02:04
对抗样本
FGSM
深度学习
对抗样本
的防御方法
作者:19届lz论文:《深度学习
对抗样本
的防御方法综述》问题2013年,Szegedy等人[1]首先通过添加轻微扰动来干扰输入样本,使基于深度神经网络(Deepneuralnetwork,DNN)的图片识别系统输出攻击者想要的任意错误结果
中南大学苹果实验室
·
2022-12-13 02:04
lz读论文的日子(GAN)
深度学习
神经网络
人工智能
从数据分布的角度提高
对抗样本
的可迁移性
1引言 对抗迁移性攻击一般是先通过代理模型生成
对抗样本
,然后将该样本迁移到其它黑盒模型中进行攻击,对抗迁移性的根本原因目前仍有待于探究。
鬼道2022
·
2022-12-13 02:03
论文解读
深度学习
人工智能
为对抗训练的理论工作添砖加瓦:选择"核心子集"进行训练,大大缩短训练时间...
关注公众号,发现CV技术之美▊引言深度神经网络极易受到
对抗样本
的攻击。
我爱计算机视觉
·
2022-12-12 10:34
神经网络
算法
python
机器学习
人工智能
什么是
对抗样本
、对抗攻击(详解)
1.
对抗样本
所谓
对抗样本
就是指:在原始样本添加一些人眼无法察觉的扰动(这样的扰动不会影响人类的识别,但是却很容易愚弄模型),致使机器做出错误的判断。
流年若逝
·
2022-12-11 00:56
论文笔记
对抗攻击相关概念
1.相关的概念
对抗样本
要认识对抗训练,首先要了解“
对抗样本
”,它首先出现在论文Intriguingpropertiesofneuralnetworks[3]之中。
love the future
·
2022-12-11 00:26
深度学习
图像处理
对抗攻击和防御
对于白盒攻击,攻击者已知模型内部的所有信息和参数,基于给定模型的梯度生成
对抗样本
,对网络进行攻击。对于黑盒攻击,攻击
tzc_fly
·
2022-12-11 00:56
论文阅读笔记
计算机视觉
深度学习
人工智能
对抗样本
攻击方法总结
本文总结了近年提出的各种
对抗样本
的攻击方法。
huitailangyz
·
2022-12-11 00:54
对抗样本
对抗攻击Adversarial Attack
blog.csdn.net/qq_43367558/article/details/121694626(2)对抗性样本攻击方法汇总https://zhuanlan.zhihu.com/p/136304195(3)
对抗样本
攻击方法总结
对抗样本
攻击方法总结
Jxufe渣渣斯
·
2022-12-11 00:53
深度学习
深度学习
Fairness-aware Adversarial Perturbation Towards Bias Mitigation for Deployed Deep Models[论文笔记]
在arxiv上看到一篇用
对抗样本
来做公平性提升的论文,fairness-awareAdversarialPerturbationTowardsBiasMitigationforDeployedDeepModels
威化饼的一隅
·
2022-12-10 21:02
论文阅读
对抗样本
公平性
深度学习
计算机视觉
AI公平
FGSM实例:利用fgsm攻击RMB识别模型
如何生成可参考右边的帮助文档目录一、模型训练总结回顾二、对RMB分类模型进行fgsm攻击1.fgsm原理2.大致思路流程概述1.求数据集中每个数据集的梯度(以供fgsm生成噪声)2.通过fgsm,得到
对抗样本
数据集
自然卷的悲伤
·
2022-12-10 09:33
python
深度学习
11月份Aidlux智慧交通AI安全实战--(目标检测+安全算法)
其中被增加扰动的数据也称为
对抗样本
。下面是一些直观的通过增加对抗噪声来让算法模
LYkuaile
·
2022-12-08 12:12
人工智能
算法
安全
AI算法对抗攻击和防御技术综述「AI核心算法」
然而,近年来研究者发现,深度学习模型存在着易受
对抗样本
攻击的安全隐患。攻击者可以通过向良性数据中添加特定的扰动,生成
对抗样本
。附
九三智能控v
·
2022-12-07 21:29
算法
人工智能
大数据
python
计算机视觉
AidLux之AI对抗防御算法
目前主流对抗防御的总体分支与逻辑:其中对抗训练是指在训练过程中加入
对抗样本
,通过不断的学习
对抗样本
的特征,从而提升模型的鲁棒性。
CV_er
·
2022-12-07 21:55
算法
人工智能
L0对抗攻击JSMA的算法盘点
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成引言JSMA是非常著名的对抗攻击,它第首次在对抗攻击中引入了的度量方式,度量本质上是限制输入图象中扰动像素点的个数
PaperWeekly
·
2022-12-07 21:22
算法
神经网络
人工智能
深度学习
机器学习
你的 AI 算法模型安全吗?来 AI 安全测试基准平台测试下
另外,由于算法存在的“
对抗样本
”特征,黑客可基于
对抗样本
技术,通过简
AI科技大本营
·
2022-12-07 21:51
人工智能
微软
安全
xss
机器学习
对抗样本
生成算法-FGSM、I-FGSM、ILCM、PGD
对抗样本
生成算法一、FGSM(FastGradientSignMethod)1.FGSM基本思想2.FGSM算法流程3.FGSM扰动有效性分析二、I-FGSM/BIM(IterativeFGSM)1.I-FGSM
东方旅行者
·
2022-12-07 12:05
算法
对抗样本
算法
对抗样本
AidLux智慧交通AI安全实战 ——(目标检测+安全算法)
针对这些攻击,很多工作提出了各种不同的方法,比如设计异常数据检测方法来检测并清除中毒样本,
对抗样本
,后门样本等攻击性样本;
Cherry CSL
·
2022-12-07 12:31
人工智能
深度学习
人工智能
神经网络
【信息与内容安全】实验一:
对抗样本
攻击实验
本文仅作翻译与稍许修改文章目录对抗性样本攻击实验题目描述欺骗模型的方法FGSM快速梯度符号攻击原理介绍FGSM实现受攻击的模型FGSM攻击函数测试攻击效果函数实施攻击结果分析准确性vsϵ\epsilonϵ
对抗样本
框架主义者
·
2022-12-07 01:06
机器学习
机器学习
图片
对抗样本
的生成
https://wizardforcel.gitbooks.io/tf-tut-hvass/content/11_Adversarial_Examples_zh_CN/11_Adversarial_Examples_zh_CN.html
Luts
·
2022-12-07 01:36
机器学习
pytorch
对抗样本
_对抗示例生成
本教程将提高您对ML模型的安全漏洞的认识,并深入了解对抗性机器学习的热门话题。您可能会惊讶地发现,对图像添加无法察觉的扰动会导致模型性能大不相同。鉴于这是一个教程,我们将通过图像分类器上的示例来探讨该主题。具体来说,我们将使用第一种也是最流行的攻击方法之一,即快速梯度符号攻击(FGSM)来欺骗MNIST分类器。威胁模型就上下文而言,有多种类型的对抗性攻击,每种攻击者都有不同的目标和对攻击者知识的假
Foo Xu
·
2022-12-07 01:35
pytorch
对抗样本
在语义层面构建的
对抗样本
SemanticAdv: Generating Adversarial Examples via Attribute-conditioned Image Editing
对抗样本
是黑盒水印里面一个经典的手段了,今天这篇SemanticAdv:GeneratingAdversarialExamplesviaAttribute-conditionedImageEditing
_Miya_
·
2022-12-07 01:35
人工智能
深度学习
机器学习
网络安全
对抗样本
生成方法论文阅读笔记
论文《针对黑盒智能语音软件的
对抗样本
生成方法》一、论文中提到的相关名词解释1.1什么是
对抗样本
?
跟着宇哥爱数学的Camila
·
2022-12-07 01:04
论文
语音识别
对抗样本
生成算法之JSMA算法
目录背景算法的原理和步骤论文2016EuroS&P-TheLimitationsofDeepLearninginAdversarialSettings.背景之前的
对抗样本
的扰动方向都是损失函数的梯度方向
学-evday
·
2022-12-07 00:33
对抗样本
深度学习
使用
对抗样本
的攻击过程
参考文献:针对恶意代码分类模型的对抗技术研究1、首次提出了一种基于灰度图像的
对抗样本
攻击算法,生成可执行的
对抗样本
,用以攻击基于机器学习的以灰度图像为分类依据的恶意代码分类模型。
ChaoFeiLi
·
2022-12-07 00:02
网络安全与人工智能
对抗样本
(二)L-BFGS
文章目录一、论文相关信息 1.论文题目 2.论文时间 3.论文文献二、论文背景及简介三、论文内容总结四、论文所使用的符号及数据等信息五、论文主要内容1、第一个特征神经元的语义信息2、第二个特征神经网络的盲点五、实验结果六、模型的不稳定性分析七、总结一、论文相关信息 1.论文题目 Intriguingpropertiesofneuralnetworks 2.论文时间 2014年
Bai丁
·
2022-12-07 00:02
对抗样本
对抗样本
L-BFGS
【对抗攻击代码实战】
对抗样本
的生成——FGSM
文章目录前言基于优化的
对抗样本
FGSM1.首先导入相关包和参数设置:2.加载数据3.定义网络模型4.定义攻击函数5.开始攻击6.可视化测试前言让我们来看一下,怎么从深度学习的基本过程到
对抗样本
的生成?
nanyidev
·
2022-12-07 00:32
2022
#
学习笔记
pytorch
深度学习
python
安全
【保姆级】黑客入门教程「Python安全攻防:渗透测试实战指南」经典纯狱风~
从架构安全到被动纵深防御,再到主动防御、安全智能,直至进攻
反制
,皆直指安全的本质——攻防。未知攻,焉知防!每一位网络安全从业者都有仗剑江湖的侠客情怀和维护网络公平正义的初心。
白帽胡子哥
·
2022-12-07 00:06
网络安全
Web安全
渗透测试
python
网络安全
安全
学完可入狱:《Web渗透测试-基于Kali Linux》经典黑客入门教程
从架构安全到被动纵深防御,再到主动防御、安全智能,直至进攻
反制
,皆直指安全的本质——攻防。未知攻,焉知防!每一位网络安全从业者都有仗剑江湖的侠客情怀和维护网络公平正义的初心。渗透
白帽胡子哥
·
2022-12-07 00:36
网络安全
Web安全
web安全
网络安全
安全
TCP伪装
为了
反制
运营商的这种策略,让我们的非TCP报文也能够获更公平、更稳定的传输链路,便有
Fireplusplus
·
2022-12-07 00:21
Linux
C语言
网络
tcp/ip
TCP伪装
在Python中使用相似性度量评估
对抗样本
对于分类神经网络,一个攻击的例子是输入图像受到干扰(或策略性修改),从而导致故意错误分类。有各种算法利用给定分类模型的信息(梯度和特征映射),并修改输入图像,使其被错误分类(非目标攻击)或总是被错误分类为特定类别(目标攻击)。在本文中,我们将研究一些白盒攻击(在了解模型信息后生成攻击的算法)。攻击:FastGradientSignMethod(https://arxiv.org/abs/1412.
woshicver
·
2022-12-06 07:36
python
深度学习
机器学习
人工智能
计算机视觉
【AI安全之
对抗样本
】入门知识
文章目录00前言01深度学习脆弱性1.1偷取模型1.2数据投毒02
对抗样本
(adversarialexamples)2.1
对抗样本
定义2.2
对抗样本
原理2.3针对图像分类模型的
对抗样本
示例2.4
对抗样本
按照攻击后的效果分类
吃_早餐
·
2022-12-05 14:10
AI安全之对抗样本
人工智能
安全
推荐系统中的对抗机器学习技术总结
然而,随着学者们的深入研究发现,深度学习模型存在
对抗样本
攻击的可能[1],这使得模型的安全性、鲁棒性以及泛化能力得到巨大的挑战。其中,
对抗样本
是一种人为设
文文学霸
·
2022-12-05 07:44
算法
大数据
计算机视觉
机器学习
人工智能
pytorch实现基本AutoEncoder与案例
简介思路与代码细节1.构造数据源2.构造AutoEncoder网络结构3.训练代码全部代码参考文章AutoEncoder简介AutoEncoder的思路是使用对称的网络结构,重现原有的特征,常用来降噪与应对
对抗样本
预训练
呆萌的代Ma
·
2022-12-04 02:03
pytorch/神经网络
pytorch
auto-encoder
计算机视觉中自监督学习的最近进展
深度视觉的挑战:找到更好的模型理解模型的鲁棒性(适用于
对抗样本
)————————希望模型训练时使用一些无标签数据自监督学习当我们采用更大的模型的时候,它的性能会更好,但是我们在面对数据倍增时,性能提升比大模型的增益更大
鱼与钰遇雨
·
2022-12-03 18:25
CV图像分割
计算机视觉
学习
人工智能
交大ADAPT实验室 | 常识知识论文列表
尽管以BERT为代表的的预训练语言模型已经在实体识别、机器翻译、情感分析等任务上取得了亮眼的表现,它们在面对一些人类可以使用常识轻易解决的问题时仍然表现不佳,面对
对抗样本
时也极为脆弱。
blmoistawinde
·
2022-12-02 16:35
机器学习
python
自然语言处理
知识图谱
机器学习
自然语言处理
知识图谱
常识知识
commonsense
竞赛trick-AWP对抗训练的即插即用实现
1、对抗训练的简单概括对抗训练就是使用
对抗样本
去训练模型,从而通过对原始训练数据添加噪声便得到了
对抗样本
。
nlp野指针
·
2022-12-02 12:29
竞赛
自然语言处理
对抗训练的理解,以及FGM、PGD和FreeLB的详细介绍
中括号里的含义为,我们要找到一组在样本空间内、使Loss最大的的
对抗样本
(该
对抗样本
由原样本x和经过某种手段得到的扰动项r_adv共同组合得到)。
_illusion_
·
2022-12-02 12:57
#
pytorch
NLP
#
BERT
NLP对抗训练:PyTorch、Tensorflow
一、定义
对抗样本
:对输入增加微小扰动得到的样本。旨在增加模型损失。对抗训练:训练模型去区分样例是真实样例还是
对抗样本
的过程。对抗训练不仅可以提升模型对
对抗样本
的防御能力,还能提升对原始样本的泛化能力。
u013250861
·
2022-12-02 12:27
AI/模型训练
算法
机器学习
人工智能
pytorch
对抗样本
_【炼丹技巧】功守道:NLP中的对抗训练 + PyTorch实现
本文分享一个“万物皆可盘”的NLP对抗训练实现,只需要四行代码即可调用。盘他。最近,微软的FreeLB-Roberta[1]靠着对抗训练(AdversarialTraining)在GLUE榜上超越了Facebook原生的Roberta,追一科技也用到了这个方法仅凭单模型[2]就在CoQA榜单中超过了人类,似乎“对抗训练”一下子变成了NLP任务的一把利器。刚好笔者最近也在看这方面的内容,所以开一篇博
weixin_39756273
·
2022-12-02 12:27
pytorch
对抗样本
pytorch
对抗样本
_【炼丹技巧】功守道:NLP中的对抗训练 + PyTorch实
Madry认为,这个公式简单清晰地定义了
对抗样本
攻防“矛与盾”的两个问题:如何构造足够强的
对抗样本
?以及,如何使模型变得刀枪不入?剩下的,就是如何求解的问题了。
weixin_39918682
·
2022-12-02 12:27
pytorch
对抗样本
解析NLP竞赛中的提分点-对抗训练
对抗训练应用场景Szegedy在14年的ICLR中提出了
对抗样本
的概念。
JMXGODLZ
·
2022-12-02 12:25
自然语言处理
深度学习
对抗训练
对抗训练FGM及用pytorch实现
对抗训练通过添加扰动构建
对抗样本
,喂入模型一同训练,提高模型遇到
对抗样本
时的鲁棒性,同时一定程度也能提高模型的表现和泛化能力。
艾伦·布拉德
·
2022-12-02 12:55
pytorch
深度学习
机器学习
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他