E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
对抗样本
[当人工智能遇上安全] 2.清华张超老师 - GreyOne: Discover Vulnerabilities with Data Flow Sensitive Fuzzing
但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个《当人工智能遇上安全》系列博客,详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、入侵检测、
对抗样本
等等
Eastmount
·
2022-05-03 12:02
当人工智能遇上安全
Python人工智能
人工智能
Fuzzing
GreyOne
漏洞挖掘
论文分享
pytorch
对抗样本
_【炼丹技巧】功守道:NLP中的对抗训练 + PyTorch实现
本文分享一个“万物皆可盘”的NLP对抗训练实现,只需要四行代码即可调用。盘他。最近,微软的FreeLB-Roberta[1]靠着对抗训练(AdversarialTraining)在GLUE榜上超越了Facebook原生的Roberta,追一科技也用到了这个方法仅凭单模型[2]就在CoQA榜单中超过了人类,似乎“对抗训练”一下子变成了NLP任务的一把利器。刚好笔者最近也在看这方面的内容,所以开一篇博
weixin_39867509
·
2022-04-29 07:53
pytorch
对抗样本
对抗攻击与防御 (2):
对抗样本
的反制策略
文章目录1引入2梯度屏蔽/混淆2.1防御性蒸馏(defensivedistillation)2.2散布梯度(shatteredgradients)2.3随机梯度(stochastic/randomizedgradients)2..4梯度爆炸和消失(exploding&vanishinggradients)2.5梯度混淆或掩盖方法不安全3健壮性优化3.1正则化方法(regularizationmet
因吉
·
2022-04-28 13:13
#
信息安全
对抗攻击与防御
对抗样本反制
因吉与皮卡墨
【论文学习】《Adversarial examples for generative models》
Adversarialexamplesforgenerativemodels》论文学习摘要1介绍2相关工作与背景2.1关于对抗的相关工作2.2VAE和VAE-GAN的背景3问题定义3.1激励攻击场景3.2用生成模型定义
对抗样本
FallenDarkStar
·
2022-04-26 09:01
深度学习
对抗样本
生成式模型
深度学习
图像重建
对抗样本
之FGSM原理&实战
目录1、FGSM原理2、pytorch实现2.1建立模型2.2FGSM模块2.3测试2.4可视化对比2.5对比样本与
对抗样本
1、FGSM原理论文Explainingandharnessingadversarialexamples
gkw
·
2022-04-21 21:36
论文导读:Universal Adversarial Training
在这篇论文中,作者提出了一种优化的方法来找到给定模型的通用
对抗样本
(首先在Moosavi-Desfooli等人[1]中引入)。作者还提出了一种低成本算法来增强模型对此类扰动的鲁棒性。
·
2022-03-24 14:11
机器学习(十三) 对抗攻击
文章目录前言1原理2攻击方式2.1针对模型的攻击2.1.1白盒攻击2.1.2黑盒攻击2.2针对输出的攻击2.2.1无目标攻击2.2.2有目标攻击3
对抗样本
生成方式4实例5流程图前言 在人工智能带来的风险中
进击的南方仔
·
2022-03-21 07:55
深度学习
对抗攻击
机器学习
深度学习
pytorch
python
对抗样本
(论文解读七):On Physical Adversarial Patches for Object Detection
准备写一个论文学习专栏,先以
对抗样本
相关为主,后期可能会涉及到目标检测相关领域。
Enjoy_endless
·
2022-03-18 07:26
对抗样本
Machine
learning
论文导读:Universal Adversarial Training
在这篇论文中,作者提出了一种优化的方法来找到给定模型的通用
对抗样本
(首先在Moosavi-Desfooli等人[1]中引入)。作者还提出了一种低成本算法来增强模型对此类扰动的鲁棒性。
·
2022-03-13 11:31
论文阅读—Robust Physical-World Attacks on Deep Learning Visual Classification
RobustPhysical-WorldAttacksonDeepLearningVisualClassification发表位置:CVPR2018摘要最近的研究表明,由于输入中添加了小幅度的扰动,致使深度神经网络(dnn)很容易受
对抗样本
的攻击
小菜鸟的进阶史
·
2022-03-11 07:27
pytorch
对抗样本
_深度学习框架PyTorch一书的学习-第七章-生成对抗网络(GAN)
参考:https://github.com/chenyuntc/pytorch-book/tree/v1.0/chapter7-GAN生成动漫头像GAN解决了非监督学习中的著名问题:给定一批样本,训练一个系统能够生成类似的新样本生成对抗网络的网络结构如下图所示:生成器(generator):输入一个随机噪声,生成一张图片判别器(discriminator):判断输入的图片是真图片还是假图片训练判别
weixin_39610631
·
2022-03-07 07:25
pytorch
对抗样本
FGPM:文本
对抗样本
生成新方法
©PaperWeekly原创·作者|孙裕道学校|北京邮电大学博士生研究方向|GAN图像生成、情绪
对抗样本
生成论文标题:FastGradientProjectionMethodforTextAdversaryGenerationandAdversarialTraining
PaperWeekly
·
2022-03-05 07:15
算法
python
计算机视觉
神经网络
机器学习
NLP炼丹技巧合集
一、对抗训练近几年,随着深度学习的发展,
对抗样本
得到了越来越多的关注。
笑傲NLP江湖
·
2022-03-03 15:53
读论文:Seeing isn’t Believing: Towards More Robust Adversarial Attack Against Real World Object Detecto
PartⅠ:Abstract&Introduction这篇论文主要讲的是物理世界
对抗样本
,在开头Abstract和Introduction部分
Caffiny
·
2022-03-03 07:14
对抗样本论文
神经网络
机器学习
深度学习
[当人工智能遇上安全] 7.基于机器学习的安全数据集总结
但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个《当人工智能遇上安全》系列博客,详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、入侵检测、
对抗样本
等等
Eastmount
·
2022-03-01 07:02
当人工智能遇上安全
Python人工智能
人工智能
安全
机器学习
网络安全
数据集
【竞赛总结】安全AI之人脸识别对抗
安全AI挑战赛比赛名称:安全AI挑战者计划人脸识别对抗比赛类型:学术、
对抗样本
、计算机视觉赛题背景近年来随着科技的蓬勃发展,AI逐步成为各类应用技术的驱动器,推动行业及技术发展。
风度78
·
2022-02-28 07:11
人脸识别
算法
大数据
数据挖掘
编程语言
OPPO AI安全竞赛-人脸识别攻防
选手在不清楚模型细节的前提之下,构造有目标或无目标的
对抗样本
从比赛内容可以看出来是关于人脸模型的黑盒攻击,而由于无法使用基于查询的方式,所以只能从
Wwwwhy_
·
2022-02-28 07:38
AI竞赛
图像识别系统对抗
人工智能
安全
计算机视觉
图像识别
人脸识别
【论文笔记】Patch-wise Attack for Fooling Deep Neural Network & Patch-wise++ Perturbation Targeted Attacks
Patch-wiseAttackforFoolingDeepNeuralNetwork&Patch-wise++新版本Patch-wise++PerturbationforAdversarialTargetedAttacks目前的研究方向是
对抗样本
Wwwwhy_
·
2022-02-28 07:37
图像识别系统对抗
深度学习
计算机视觉
算法
神经网络
AAAI 安全挑战者第八期记录
二、加入GAN生成
对抗样本
本次比赛主要使用了CGAN生成
对抗样本
,对10个分类标签产生
对抗样本
共计3万多张(太
Facouse
·
2022-02-28 07:34
比赛记录
python
深度学习
安全
Explaining and Harnessing Adversarial Examples论文解读
摘要包括神经网络在内的一些机器学习模型,会错分
对抗样本
并以高置信度输出错误答案。早期对这种现象的解释集中在非线性和过拟合上。相反,我们认为神经网络易受对抗性干扰的主要原因是其线性特性。
你回到了你的家
·
2022-02-26 07:56
论文解读
深度学习
神经网络
机器学习
机器学习_深度学习毕设题目汇总——图像重构
下面是该类的一些题目:题目基于U-Net卷积神经网络的海面风场图像重构基于Wasserstein生成对抗网络的磁共振图像重构方法研究基于压缩感知和深度学习的高光谱图像重构算法研究基于图像重构的
对抗样本
防御方法研究基于深度卷积神经网络的超分辨率图像重构技术研究基于深度学习的多能谱
MetaGrad
·
2022-02-20 13:24
毕设题目
机器学习
深度学习
人工智能
火出圈的3D人脸识别如何让“刷脸”更安全?
前不久,瑞莱智慧RealAI的研究人员通过
对抗样本
攻击,破解了19款安卓手机的人脸识别解锁系统,只有一台iPhon
数据堂官方账号
·
2022-02-18 07:48
数据产品
3d
安全
计算机视觉
暴力的黑盒
对抗样本
攻击 -- ZOO
ZerothOrderOptimizationBasedBlack-boxAttackstoDeepNeuralNetworkswithoutTrainingSubstituteModels"对抗攻击这是一个黑盒的
对抗样本
攻击
Mezereon
·
2022-02-13 18:21
浅谈深度学习模型中的后门
关于深度学习安全方面,粗浅地可以分为两大块:
对抗样本
(AdversarialExample)以及后门(Backdoor)关于
对抗样本
可以查看我之前的文章----
对抗样本
攻击这一次我们主要关注深度学习里面的后门攻击
Mezereon
·
2022-02-06 15:54
python深度学习借助多标签分类器进行对抗训练
目录1摘要2方法介绍2.1多分类任务
对抗样本
2.2多标签任务
对抗样本
2.3双分类器对抗训练人脸表情对抗训练1摘要当前深度模型抵御对抗攻击最有效的方式就是对抗训练,神经网络在训练的过程中通过引入
对抗样本
使得模型具有一定的鲁棒性
·
2022-02-04 15:47
对抗子空间维度探讨
引言
对抗样本
是深度学习模型的主要威胁之一,
对抗样本
会使得目标分类器模型分类出错并且它存在于稠密的对抗子空间中,对抗子空间又包含于特定的样本空间中。
鬼道2022
·
2022-02-04 15:23
论文解读
深度学习
AI安全笔记
对抗攻击术语l对抗图像/
对抗样本
(Adversarialexample/image)
对抗样本
是对干净图像进行处理后的样本,被故意扰乱(如加噪声等)以达到迷惑或者愚弄机器学习技术的目的,包括深度神经网络。
超哥__
·
2022-02-03 18:46
对抗性攻击的原理简介
什么是
对抗样本
?这些数据样本看起来像正常样本,但以某种方式受到干扰以欺骗机器学习系统。例如在给定的图像中
·
2021-12-24 11:09
CVPR2021:对抗变换提高
对抗样本
的可迁移性
引言 该论文发表于CVPR2021,主要是关于黑盒攻击中
对抗样本
可迁移性的研究。论文的创新点很新颖,虽然论文代码没有开源,但是自己实现起来也相对简单。
鬼道2021
·
2021-11-10 10:02
论文解读
深度学习
机器学习
人工智能
笔记 CVPR 2021 Improving the Transferability of Adversarial Samples with Adversarial Transformations
目录摘要1引入Introduction2相关工作2.1合成
对抗样本
2.2
对抗样本
防御3方法3.1问题描述3.2对抗变换网络AdversarialTransformationNetwork3.3
对抗样本
生成
敌不动我不动
·
2021-11-04 22:33
计算机视觉
深度学习
人工智能
[当人工智能遇上安全] 6.基于机器学习的入侵检测和攻击识别——以KDD CUP99数据集为例
但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个《当人工智能遇上安全》系列博客,详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、入侵检测、
对抗样本
等等
Eastmount
·
2021-10-24 13:55
当人工智能遇上安全
Python人工智能
1024程序员节
AI安全
KDD
CUP99
入侵检测
攻击识别
[当人工智能遇上安全] 5.基于机器学习算法的主机恶意代码识别研究
但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个《当人工智能遇上安全》系列博客,详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、入侵检测、
对抗样本
等等
Eastmount
·
2021-09-27 18:06
当人工智能遇上安全
Python人工智能
人工智能
机器学习
网络安全
恶意代码识别
AI安全
论文阅读丨神经清洁: 神经网络中的后门攻击识别与缓解
摘要:本文将带你了解深度神经网络的后门知识,作者提出了一种可靠且可推广的DNN后门攻击检测和缓解系统,这是了解
对抗样本
和神经网络后门攻击的深度解读。
·
2021-09-27 11:13
[当人工智能遇上安全] 4.基于机器学习的恶意代码检测技术详解
但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个《当人工智能遇上安全》系列博客,详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、入侵检测、
对抗样本
等等
Eastmount
·
2021-09-22 19:31
当人工智能遇上安全
Python人工智能
人工智能
深度学习
恶意代码分析
系统安全
网络安全
论文笔记:
对抗样本
CVPR2021 Enhance Transferability of Adversarial Attacks through Variance Tuning
目录Abstract摘要1.Introduction引言1.1背景1.2引入2.相关工作RelatedWork2.1
对抗样本
攻击2.2
对抗样本
防御AdversarialDefenses3.方法论Methdology3.1
敌不动我不动
·
2021-08-23 16:48
计算机视觉
深度学习
生成
对抗样本
和训练经验
目前来讲,在高维空间上进行线性操作可以制作
对抗样本
。对
对抗样本
有用的操作并不包括正则化,预训练,和模型平均,但改变到一个非线性化的如RBF网络可以提高免疫能力。
吟巧
·
2021-06-26 09:14
浅谈深度学习中的
对抗样本
及其生成方法
背景深度学习模型被广泛应用到各种领域,像是图像分类,自然语言处理,自动驾驶等。以ResNet,VGG为代表的一系列深度网络在这些领域上都取得了不错的效果,甚至超过人类的水平。然而,Szegedy等人在2014年的工作(Intriguingpropertiesofneuralnetworks)揭示了深度网络的脆弱性(vulnerability),即在输入上做一些微小的扰动(perturbation)
Mezereon
·
2021-06-22 04:29
Day14 #100DaysofMLCoding#
max_lenormax(map(len,names))tf.stacktf.transpose#交换维度fromIPython.displayimportclear_outputAdversarial对于
对抗样本
MWhite
·
2021-06-21 02:23
深度神经网络的特征引导黑盒安全测试(Feature-Guided Black-Box Safety Testing of Deep Neural Networks)
XiaoweiHuang,andMartaKwiatkowska单位:佐治亚大学,利物浦大学,牛津大学目录摘要预备知识基于人类感知的操作安全性蒙特卡罗树搜索渐近最优策略实验结果总结摘要 大多数现有的生成
对抗样本
的方法都需要一些自己使用的神经网络知识
GGG_Yu
·
2021-06-18 20:21
论文笔记
神经网络
算法
安全
CVPR 2021 | 对抗攻防新方向:动作识别算法容易被攻击!
智源导读:
对抗样本
是近年来非常热门的研究问题,但是大多数的研究往往针对于静态数据(图像、文本、几何),然而时序数据上的探索往往较少,本文主要是研究了一种特殊但十分重要的时序数据——骨架动作下的黑盒攻击。
智源社区
·
2021-06-17 20:04
机器学习
人工智能
深度学习
计算机视觉
python
语义上的
对抗样本
-- SemanticAdv
语义上的
对抗样本
--SemanticAdv这次介绍的是ECCV2020的一篇文章,SemanticAdv:GeneratingAdversarialExamplesviaAttribute-conditionedImageEditing
Mezereon
·
2021-06-08 09:02
快速梯度标志攻击 FGSM(Fast Gradient Sign Attack)
Goodfellow等人在[ExplainingandHarnessingAdversarialExamples](https://arxiv.org/abs/1412.6572)中提出,是一种简单但是有效的
对抗样本
生成算法
limus
·
2021-06-07 08:06
如何利用
对抗样本
来提升精度
介绍这次介绍一篇CVPR2020的工作,AdversarialExamplesImproveImageRecognition,该工作主要揭示了
对抗样本
对图像分类的促进作用。
Mezereon
·
2021-06-06 18:11
北航出品,CVPR 安全AI大赛第二名:梯度细化提高对抗传递性
要知道深层神经网络容易受到
对抗样本
的攻击,这些样本是通过在原始图像中添加人类察觉不到的扰动而生成的
我爱计算机视觉
·
2021-05-19 23:58
算法
计算机视觉
人工智能
深度学习
机器学习
pytorch制作CNN的类印象图 class impression(类别生成图)及生成对抗攻击样本
本文给出完整代码实现CNN模型的类别可视化输入图像——类印象图,并基于此生成
对抗样本
图像。
Brikie
·
2021-04-07 21:17
随笔·各种知识点整理
深度学习
直播预告:AAAI 2021专场三| AI TIME PhD
AITIME哔哩哔哩官方账号观看直播链接:https://live.bilibili.com/21813994★邀请嘉宾★李林阳:复旦大学NLP组19级研究生;导师为邱锡鹏教授;目前研究方向为自然语言中的
对抗样本
学习
AITIME论道
·
2021-03-08 17:13
人工智能
推荐系统
编程语言
强化学习
深度学习
【深度学习】【AdvProp对抗传播算法】【论文翻译】
对抗样本
法对图像识别性能的提升
[原论文链接](https://www.zhuanzhi.ai/paper/f2ee9c8c003e01f4137af10d2bc5f467)说明:本文翻译自以上链接中的论文,该论文论述了
对抗样本
可能有利于提高网络模型对图像识别的能力
openRiemann
·
2021-01-31 18:17
深度学习
CNN图像分类的小技巧(1): mixup数据增强
1.mixup论文连接mixup是一种dataaugmentation方法,可以用来提升模型的泛化能力和对
对抗样本
(adversarialexamples,指的是训练样本分布外的样本)的鲁棒性。
一只猩仔
·
2021-01-28 00:54
Boosting Adversarial Attacks with Momentum (翻译,侵删)
BoostingAdversarialAttackswithMomentum用动量增强对抗攻击摘要深度神经网络对于
对抗样本
是脆弱的,对这些孙发提出了安全的担忧,因为潜在的严重的威胁。
turb_csdn
·
2021-01-26 22:10
Examples)
深度学习
tensorflow
pytorch
神经网络
图像embedding训练方式_转载 | 对抗训练浅谈:意义、方法和思考(附Keras实现)...
NLP、神经网络当前,说到深度学习中的对抗,一般会有两个含义:一个是生成对抗网络(GenerativeAdversarialNetworks,GAN),代表着一大类先进的生成模型;另一个则是跟对抗攻击、
对抗样本
相关的领域
玄玖爷
·
2021-01-22 08:46
图像embedding训练方式
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他