E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
对抗样本
CNN图像分类的小技巧(1): mixup数据增强
1.mixup论文连接mixup是一种dataaugmentation方法,可以用来提升模型的泛化能力和对
对抗样本
(adversarialexamples,指的是训练样本分布外的样本)的鲁棒性。
一只猩仔
·
2021-01-28 00:54
Boosting Adversarial Attacks with Momentum (翻译,侵删)
BoostingAdversarialAttackswithMomentum用动量增强对抗攻击摘要深度神经网络对于
对抗样本
是脆弱的,对这些孙发提出了安全的担忧,因为潜在的严重的威胁。
turb_csdn
·
2021-01-26 22:10
Examples)
深度学习
tensorflow
pytorch
神经网络
图像embedding训练方式_转载 | 对抗训练浅谈:意义、方法和思考(附Keras实现)...
NLP、神经网络当前,说到深度学习中的对抗,一般会有两个含义:一个是生成对抗网络(GenerativeAdversarialNetworks,GAN),代表着一大类先进的生成模型;另一个则是跟对抗攻击、
对抗样本
相关的领域
玄玖爷
·
2021-01-22 08:46
图像embedding训练方式
Evading Defenses to Transferable Adversarial Examples by Translation-Invariant Attacks (翻译,侵删)
EvadingDefensestoTransferableAdversarialExamplesbyTranslation-InvariantAttacks利用平移不变攻击规避针对迁移性
对抗样本
的防御摘要深度神经网络对
对抗样本
具有脆弱性
turb_csdn
·
2021-01-20 19:00
Examples)
神经网络
计算机视觉
深度学习
SKIP CONNECTIONS MATTER: ON THE TRANSFERABILITY OF ADVERSARIAL EXAMPLES GENERATED WITH RESNETS 翻译,侵删
SKIPCONNECTIONSMATTER:ONTHETRANSFERABILITYOFADVERSARIALEXAMPLESGENERATEDWITHRESNETS(跳跃连接的重要性,论使用ResNets生成的
对抗样本
的迁移性
turb_csdn
·
2021-01-18 16:12
Examples)
神经网络
计算机视觉
深度学习
pytorch
论文推荐:Hybrid Batch Attacks: Finding Black-box Adversarial Examples with Limited Queries
USENIXSecurity2020论文推荐:论文名称:HybridBatchAttacks:FindingBlack-boxAdversarialExampleswithLimitedQueries推荐理由:作者研究了黑盒环境下的
对抗样本
AMiner科技
·
2020-12-29 18:50
AMiner
AMiner论文推荐
AMiner会议论文推荐
人工智能
机器学习
深度学习
pytorch
对抗样本
_基于PyTorch的计算机视觉框架
原创声明:本文为SIGAI原创文章,仅供个人学习使用,未经允许,不能用于商业目的。其它机器学习、深度学习算法的全面系统讲解可以阅读《机器学习-原理、算法与应用》,清华大学出版社,雷明著,由SIGAI公众号作者倾力打造。书的购买链接书的勘误,优化,源代码资源PDF全文链接:基于PyTorch的计算机视觉框架本文作者:东尼大佬导言目前,深度学习技术已经广泛应用于计算机视觉的各个领域,Caffe、Ten
利兄
·
2020-12-28 23:30
pytorch
对抗样本
pytorch
对抗样本
_图像分类比赛tricks:“观云识天”人机对抗大赛:机器图像算法赛道-天气识别—百万奖金...
最终决赛排名:第五名(和兴路天团)比赛数据集:链接:https://pan.baidu.com/s/1yykdqqxXY_9eCgioHfAmTg提取码:kbxy参赛背景(“观云识天”人机对抗大赛)根据大赛组织方提供的图片数据训练算法,能够区分降雨、降雪、冰雹、露、霜、雾(霾)、雾凇、雨凇、电线积冰9种天气现象。赛题分析数据存在的问题:数据量小样本不均衡数据集噪声大对天气知识的先验知识不足解决方案
極簡力
·
2020-12-21 20:10
pytorch
对抗样本
keras如何在验证集加噪声_对抗训练浅谈:意义、方法和思考(附Keras实现)
NLP、神经网络当前,说到深度学习中的对抗,一般会有两个含义:一个是生成对抗网络(GenerativeAdversarialNetworks,GAN),代表着一大类先进的生成模型;另一个则是跟对抗攻击、
对抗样本
相关的领域
伊 航
·
2020-12-04 09:24
keras如何在验证集加噪声
复旦大学汪励颢:基于
对抗样本
的语法纠错研究
讲者将从文本对抗攻击角度出发,提出了一种适用于GEC任务的对抗攻击算法,以产生高质量的
对抗样本
来进行数据增强。实验证明了,生成的
对抗样本
,既能增强模型的泛化性,也能
AITIME论道
·
2020-12-01 19:43
算法
机器学习
深度学习
人工智能
自然语言处理
2020CVPR
对抗样本
相关论文整理(有开源代码)
目录攻击防御攻击1.TowardsLargeyetImperceptibleAdversarialImagePerturbationswithPerceptualColorDistancecode链接《朝向具有感知色差的大但不易察觉的对抗图像扰动》一般,用对抗效果和不可感知性来评估图像扰动的效果。其中,对于不可感知性的假设是,扰动要在RGB空间中达到严格的LpL_pLp范数边界。在本论文中,作者通
学-evday
·
2020-11-29 17:34
对抗样本
人工智能
深度学习
复旦大学李林阳:应用预训练模型实现
对抗样本
生成的高效方法
针对离散数据(例如文本)的对抗攻击比连续数据(例如图像)更具挑战性,因为很难使用基于梯度的方法生成
对抗样本
。
AITIME论道
·
2020-11-25 19:48
算法
机器学习
人工智能
深度学习
自然语言处理
GAN &
对抗样本
目录关于
对抗样本
的解释GAN原理简介GAN生成
对抗样本
的发展关于
对抗样本
的解释对于
对抗样本
为何能够攻击成功,目前有以下三种解释:高维空间的线性模型解释:当输入为图像时,沿着梯度方向很小的线性运动就可以导致深度神经网络增加很大的扰动
学-evday
·
2020-11-24 21:31
机器学习
GAN
浙大团队外滩大会分享AI
对抗样本
技术
外滩大会AI安全-智能时代的攻守道DeepLearningSecurity:FromtheNLPPerspective浙江大学《秀璋带你读论文》系列主要是督促自己阅读优秀论文及听取学术讲座,并分享给大家,希望您喜欢。由于作者的英文水平和学术能力不高,需要不断提升,所以还请大家批评指正,非常欢迎大家给我留言评论,学术路上期待与您前行,加油~AI技术蓬勃发展,无论是金融服务、线下生活、还是医疗健康都有
Eastmount
·
2020-10-18 20:31
娜璋带你读论文
论文分享
AI安全
对抗样本
外滩大会
人工智能安全
成功解决OSError: Unable to open file (truncated file: eof = 40960, sblock->base_addr = 0, stored_eof = 1
使用FGSM的对抗示例,在训练
对抗样本
时(https://tensorflow.google.cn/tutorials/generative/adversarial_fgsm),遇到以下问题pretrained_model
清风思月
·
2020-09-17 04:59
AI/ML/DL
Python
关系抽取(自学笔记)
姚明出生于上海”首先,对句子进行预处理,识别出命名实体“姚明”和“上海”然后,“出生于”作为关系触发词表明这2种实体之间可能存在某种关系最后,通过关系抽取模型的判定,得出2个实体之间存在着“地点”这一关系少量
对抗样本
会避免模型过拟合
六六同学
·
2020-09-16 01:23
论文
图像
对抗样本
的生成(FGSM)
通过FGSM构造
对抗样本
的优势是效率比较高,最终生成的
对抗样本
会对原图所有像素点都产生一些微弱的视觉暇疵,如下图所示。该攻击属于白盒
朝花偏不夕拾W
·
2020-09-15 01:27
面向深度学习系统的
对抗样本
攻击与防御
研究生涯即将开始,现在做的是
对抗样本
攻击与防御,开始每天写博客,记录一下自己的学习历程~1.
对抗样本
尽管深度学习解决某些复杂问题的能力超出了人类水平,但也面临多种安全性威胁。
dfs000
·
2020-09-14 13:51
人工智能
机器学习
对抗样本
视频讲解
论文笔记| Deflecting Adversarial Attacks with Pixel Deflection
对抗样本
防御方法
发现在干净的原图上,原始正确分类并未受到影响,而对于带有
对抗样本
的图,打乱像素能够使得分类重回正确。大多数攻击都是在整个图像中搜索扰动,不考虑图像内容的位置,而分类器在存在对象的区域中激活率更高。
陈皮咖啡
·
2020-09-14 13:22
对抗样本
深度学习
生成
对抗样本
的方法|攻击方法
对抗样本
1.Biggio′sattackBiggio[22]等人首先针对传统机器学习分类器(如SVM和三层全连接神经网络)的MNIST手写数字识别数据集生成
对抗样本
。它通过优化判别函数来误导分类器。
honor、
·
2020-09-14 13:09
机器学习
[论文阅读笔记]SEMANTIC ADVERSARIAL ATTACKS: PARAMETRIC TRANSFORMATIONS THAT FOOL DEEP CLASSIFIERS(ICCV)
PARAMETRICTRANSFORMATIONSTHATFOOLDEEPCLASSIFIERS(2019ICCV)文章简介:本文的出发点不同于以前的方法(例如修改某几个像素点或者在原图上添加扰动),本文的
对抗样本
是通过修改输入图像中某些特殊的特征
大鲨鱼冲鸭
·
2020-09-14 13:48
深度学习/机器学习
对抗鲁棒性使得神经网络又强又怂
对抗样本
的存在表明现代神经网络是相当脆弱的。为解决这一问题,研究者相继提出了许多方法,其中使用
对抗样本
进行训练被认为是至今最有效的方法之一。
AITIME论道
·
2020-09-14 03:09
神经网络
网络
计算机视觉
机器学习
人工智能
直播预告:对神经网络对抗鲁棒性正则化的认识 | AI TIME PhD
直播通道:哔哩哔哩直播通道扫码或点击链接关注AITIME哔哩哔哩官方账号观看直播链接:https://live.bilibili.com/21813994
对抗样本
的存在表明现代神经网络是相当脆弱的。
AITIME论道
·
2020-09-14 03:36
人工智能
机器学习
深度学习
神经网络
计算机视觉
【综述】
对抗样本
生成及攻防技术综述
作者是电子科技大学的刘小垒等,2019年发表在计算机应用研究主要内容:以机器学习的安全性问题为出发点,介绍了当前机器学习面临的隐私攻击、完整性攻击等安全问题,归纳了目前常见
对抗样本
生成方法的发展过程及各自的特点
Shall_ByeBye
·
2020-09-13 15:43
论文阅读
对抗攻击
nlp对抗训练(Keras实现)
近年来,随着深度学习的日益发展和落地,
对抗样本
也得到了越来越多的关注。
dataastron
·
2020-09-11 21:49
自然语言处理
对抗训练浅谈:意义、方法和思考(附Keras实现)
NLP、神经网络当前,说到深度学习中的对抗,一般会有两个含义:一个是生成对抗网络(GenerativeAdversarialNetworks,GAN),代表着一大类先进的生成模型;另一个则是跟对抗攻击、
对抗样本
相关的领域
PaperWeekly
·
2020-09-11 21:56
一文尽览!文本对抗攻击基础、前沿及相关资源
特别是文本离散的特点使得
对抗样本
的生成更具挑战性,也有更多的研究空间。我们欣喜地看到,目前有越来越多的NLP研究者开始探索文本对抗攻击这一方向,以2020
BAAIBeijing
·
2020-09-10 09:34
python
计算机视觉
机器学习
人工智能
深度学习
「万字综述」对抗鲁棒性-AI桥头堡「AI核心算法」
目录:
对抗样本
的发现我们为什么要研究
对抗样本
现象?寻找
对抗样本
:一个约束
九三智能控v
·
2020-09-04 20:32
计算机视觉
神经网络
机器学习
人工智能
deep
learning
神仙打架看不懂?用人话解读NIPS神经网络攻防赛清华三连冠团队模型算法
本文用高中生能听懂的人话介绍了2017NIPS神经网络攻防竞赛清华大学三项冠军团队的算法模型,详细介绍了基本算法FGSM、
对抗样本
的生成、攻防模型训练、NIPS比赛规则、清华参赛队的模型可迁移性优化策略
同济 子豪兄
·
2020-08-25 07:59
Github优质项目翻译
说人话的人工智能零基础教程
子豪兄的原创文章
文本也有攻防战:清华大学开源
对抗样本
必读论文列表
在自然语言处理领域,
对抗样本
的攻击与防御近来受到很多研究者的关注,我们希望构建更稳健的NLP模型。在本文中,我们简要讨论了攻防的概念,并介绍了清华大学近日开源的NLP
对抗样本
攻防必读论文列表。
weixin_34258838
·
2020-08-24 06:40
Robust Adversarial Examples_鲁棒的
对抗样本
https://blog.openai.com/robust-adversarial-inputs/?spm=a2c4e.11153940.blogcont149583.11.4ab360c0mXrtX7原文中包含视频例子。我们创建的图像可以在从不同的尺度和视角观察时可靠地欺骗神经网络分类器。这挑战了上周声称自动驾驶汽车难以恶意欺骗,因为它们从多个尺度,角度,视角等捕获图像。这张印刷在标准彩色打印
weixin_33972649
·
2020-08-24 06:30
Towards Adversarially Robust Object Detection 论文笔记
前言许多工作证明分类器在面对对抗攻击(adversarialattack)时是非常脆弱的,比如有一种
对抗样本
,它只对原图进行很轻微地修改,但是在视觉上与原图相比是完全不同的。
头柱碳只狼
·
2020-08-24 05:00
对抗训练
生成对抗网络 - Adversarial Examples
对抗样本
这些扰动是通过最大化预测误差来训练获得输入的,称这种输入为
对抗样本
。对抗例子是相对鲁棒的,即神经网络A生成的
对抗样本
,在神经网路B下仍然是,即使B是不同的网络结构、超参、和训练数据。
mao_feng
·
2020-08-24 05:34
深度学习
对抗样本
生成算法之BIM算法
论文主要内容提出了BIM攻击算法,即迭代FGSM(I-FGSM)算法提出ILCM最相似迭代算法(IterativeLeast-likelyClassMethod)进行实验,验证了在真实物理环境中,通过图像采集得到的
对抗样本
是否依旧能够使
学-evday
·
2020-08-24 05:28
对抗样本
[论文笔记]TOWARDS DEEP NEURAL NETWORK ARCHITECTURES ROBUST TO ADVERSARIAL EXAMPLES 论文笔记
TOWARDSDEEPNEURALNETWORKARCHITECTURESROBUSTTOADVERSARIALEXAMPLES一、前言二、注入噪声三、去噪自编码(DAE)四、深度收缩网(DCN)一、前言本文主要是为了探索
对抗样本
的特性和神经网络的拓扑结构
Xie Zhuang
·
2020-08-24 05:55
论文笔记
对抗样本
攻防战,清华大学TSAIL团队再获CAAD攻防赛第一
最近,在全球安全领域的殿堂级盛会DEFCON2018上,GeekPwn拉斯维加斯站举行了CAADCTF邀请赛,六支由国内外顶级AI学者与研究院组成的队伍共同探讨以对抗训练为攻防手段的CTF。TSAIL团队的庞天宇、杜超作为代表获得该项比赛的冠军,参加比赛的骨干成员还包括董胤蓬、韦星星等,TSAIL团队来自于清华大学人工智能研究院,主要研究领域为机器学习。同样在去年,该团队在NIPS2017AI对抗
weixin_30636089
·
2020-08-24 05:58
ICLR2018_mixup: Beyond Empirical Risk Minimization
作者HongyiZhang张宏毅@张宏毅知乎北大->MIT论文所属FAIRAbstract深度神经网络有些不好的行为:强记忆和对
对抗样本
敏感ChristianSzegedy等人在ICLR2014发表的论文中
weixin_30794851
·
2020-08-24 03:22
2018-11-27
项目阶段性成果汇报黄老师的指导意见:①不要继续停留在模型和数据集阶段,可以利用现有的实例分割模型直接进行
对抗样本
的生成。尽可能多的生成
对抗样本
。举例:把人识别成没有。感兴趣的话可以有人继续研究模型。
_拌饭酱
·
2020-08-23 07:53
对抗样本
/对抗攻击
神经网络中的对抗攻击与
对抗样本
https://baijiahao.baidu.com/s?
猴猴猪猪
·
2020-08-22 13:38
论文笔记
【论文翻译】Physical Adversarial Examples for Object Detectors
针对物体检测器的物理
对抗样本
PhysicalAdversarialExamplesforObjectDetectorsKevinEykholt,IvanEvtimov,EarlenceFernandes
Mr Ma
·
2020-08-22 04:43
论文翻译
对抗样本
深度学习
【论文翻译】Towards Robust Detection of Adversarial Examples
对抗样本
的鲁棒检测TowardsRobustDetectionofAdversarialExamplesTianyuPang,ChaoDu,YinpengDong,JunZhu目录
对抗样本
的鲁棒检测TowardsRobustDetectionofAdversarialExamples
Mr Ma
·
2020-08-22 04:34
论文翻译
ICLR 2018论文评审结果出炉:一文概览论文 TOP 5
目前,斯坦福大学探究神经网络
对抗样本
的论文CertifiableDistributionalRobustnesswithPrincipledAdversarialTraining名列第一。
机器之心V
·
2020-08-22 01:41
人工智能
2017CS231n笔记_S16
对抗样本
和对抗训练
对抗样本
:
对抗样本
是用心构造出来的会被分错类的样本。使用
对抗样本
来攻击深度卷积网络,使得它出错。
对抗样本
可以欺骗很多种线性模型,包括逻辑回归和支持向量机。
对抗样本
也可以欺骗非线性模型。
KKALL1314
·
2020-08-20 22:36
人工智能
Explaining and Harnessing Adversarial Examples 笔记
ExplainingandHarnessingAdversarialExampleshttps://arxiv.org/abs/1412.6572Summary本文提出了白盒模型下不定向对抗攻击的方法FGSM表面了DNN是因为高维空间中的线性行为才是导致
对抗样本
出现提供了通过
iivmot
·
2020-08-18 11:00
神经网络中的对抗攻击与
对抗样本
文章来源:https://baijiahao.baidu.com/s?id=1596201339578975526&wfr=spider&for=pc前言在学习神经网络白盒、黑盒对抗攻击时候,搜到这篇文章,觉得作者把神经网络中的对抗攻击来龙去脉介绍的特别通俗易懂,转载一下好好学习。什么是对抗攻击初识神经网络会惊叹它的神奇,在不了解的情况下我相信很多人会好奇它为什么可以成功,这种好奇中其实还隐藏着一
Briwisdom
·
2020-08-17 15:28
深度学习
对抗攻击之利用水印生成
对抗样本
Adv-watermark:ANovelWatermarkPerturbationforAdversarialExamples论文链接:https://arxiv.org/pdf/2008.01919.pdf引言
对抗样本
生成的方法有很多
我爱计算机视觉
·
2020-08-17 13:35
算法
python
计算机视觉
机器学习
人工智能
第一学期10篇文章阅读计划(一):骗过探测器的
对抗样本
骗过探测器的
对抗样本
对抗性样本是在测试中经过调整的,在呈现给系统时产生错误的样本。迄今为止,对抗性的样本的构造,已经可以绕过分类器,但还不能欺骗探测器。
codesailor
·
2020-08-17 12:48
第一学期10篇文章阅读计划
利用python实现深度学习生成
对抗样本
模型,为任一图片加扰动并恢复原像素的全流程记录
利用python实现深度学习生成
对抗样本
,为任一图片加扰动并恢复原像素一、前言(一)什么是深度学习(二)什么是样本模型(三)什么是
对抗样本
1、对抗的目的2、谁来对抗?3、对抗的敌人是谁?4、怎么对抗?
鱼月半
·
2020-08-17 12:33
python
对抗样本
深度学习
Intriguing properties of neural networks 笔记
Intriguingpropertiesofneuralnetworkshttps://arxiv.org/abs/1312.6199Summary本文首次提出了
对抗样本
这一概念并且给出一个基于Box-constrainedL-BFGS
iivmot
·
2020-08-17 12:00
AI安全---对抗攻击防御措施
1.改训练过程/输入数据1蛮力对抗训练通过不断输入新类型的
对抗样本
并执行对抗训练,从而不断提升网络的鲁棒性。为了保证有效性,该方法需要使用高强度的
对抗样本
,并且网络架构要有充足的表达能力。这种方法需要
草棚
·
2020-08-17 10:34
机器学习
信息安全
机器学习
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他