E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
个人随笔(论文解读
SKnet
论文解读
本文讲述sknet的核心部分:自适应性的注意力编码机制SKNet对不同输入使用的卷积核感受野不同,参数权重也不同,可以自适应的对输出进行处理注:本人才疏学浅,文章难免有疏漏之处,仅给初学者阅读交流,大牛轻喷.开始之前的题外话说来也算有趣,最近读了几个关于CV领域的paper,有的号称其idea来源于神经科学,比如SIM-AM的三维特征推断(这个其实没怎么看懂),言归正传,我们看一看sknet吧1.
吃小花的魔王
·
2022-03-03 14:34
CNN
深度学习
人工智能
轻量级网络--ShuffleNet
论文解读
摘要论文介绍一个效率极高的CNN架构ShuffleNet,专门应用于计算力受限的移动设备。新的架构利用两个操作:逐点群卷积(pointwisegroupconvolution)和通道混洗(channelshuffle),与现有先进模型相比在类似的精度下大大降低计算量。在ImageNet和MSCOCO上ShuffleNet表现出比其他先进模型的优越性能。Introduction现许多CNNs模型的发
坚硬果壳_
·
2022-03-01 07:23
论文笔记
Explaining and Harnessing Adversarial Examples
论文解读
摘要包括神经网络在内的一些机器学习模型,会错分对抗样本并以高置信度输出错误答案。早期对这种现象的解释集中在非线性和过拟合上。相反,我们认为神经网络易受对抗性干扰的主要原因是其线性特性。这一解释得到了新的定量实验的支持,同时首次解释了关于它们的一个有趣的事实:对抗样本对模型结构以及训练集具有泛化性。此外,这种观点还提供了一种生成对抗样本的的简单而快速的方法。通过这种方法为对抗训练提供样本,我们减少了
你回到了你的家
·
2022-02-26 07:56
论文解读
深度学习
神经网络
机器学习
CVPR 2019 Oral
论文解读
| 无监督域适应语义分割
雷锋网AI科技评论按:百度研究院、华中科技大学、悉尼科技大学联合新作——关于无监督领域自适应语义分割的论文《TakingACloserLookatDomainShift:Category-levelAdversariesforSemanticsConsistentDomainAdaptation》被CCFA类学术会议CVPR2019收录为Oral论文。该论文提出了一种从「虚拟域」泛化到「现实域」的
AI研习社
·
2022-02-21 14:12
fast rcnn
论文解读
(附代码链接)
要解决的问题1、RCNN和SPPnet分多步训练,先要finetuning一个预训练的网络,然后针对每个类别都训练一个SVM分类器,最后还要用regressors对bounding-box进行回归,另外regionproposal也要单独用selectivesearch的方式获得,步骤比较繁琐。2、时间和内存消耗比较大。在训练SVM和回归的时候需要用网络训练的特征作为输入,特征保存在磁盘上再读入的
小小谢先生
·
2022-02-21 07:19
经典神经网络论文解读及代码实现
Object Detection---R-CNN / fast-RCNN / faster-RCNN (
论文解读
七)
R-CNN系列作为目标检测领域的大师之作,对了解目标检测领域有着非常重要的意义。Title:R-CNN:Ricefeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentationfast-RCNNFaster-RCNN:TowardsReal-TimeObjectDetectionwithRegionProposalNetwork
Jayden yang
·
2022-02-21 07:59
论文解读
Segmentation
and
Detection
D5-Fast R-CNN & Faster R-CNN
论文解读
FastR-CNN&FasterR-CNNR-CNN缺点:训练分为多个阶段。首先使用log损失函数对ConvNet候选区域进行微调。然后,将SVM与CNN相结合。这些SVM作为对象检测器,代替了通过微调学习的softmax分类器。在第三个训练阶段,学习bbox回归函数。训练浪费大量内存空间和训练时间。每个候选区域都要经过CNN提取特征,然后前向传播。测试比较慢。SPPNet缺点:为了克服R-CNN
处女座的柚子
·
2022-02-21 07:22
#
目标检测
目标检测
计算机视觉--CV技术指南文章汇总
点击每篇文章标题可阅读详细内容欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典
论文解读
。在公众号中回复关键字“入门指南“可获取计算机视觉入门所有必备资料。
CV技术指南(公众号)
·
2022-02-21 07:42
CV技术总结
计算机视觉
人工智能
深度学习
ICCV2021
transformer
Fast-R-CNN
论文解读
Fast-r-cnn是Ross在2015年发表的一篇论文,其网络全称为:FastRegion-basedConvolutionalNetworkmethod–用于目标检测的基于区域的快速卷积网络算法。在于先前的网络R-CNN对比之下,其训练速度要快9倍,检测时间快出来213倍(R-CNN的检测时间GPU工作下为47s一张图片),同时在检测精度上也作了进一步的提升。一、任务简介在介绍中,作者提出目标
NewSuNess
·
2022-02-21 07:11
深度学习论文研读
cnn
r语言
深度学习
[
论文解读
]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features
以前好久的论文,这几天整理资料也翻出来了。应该是CVPR19的论文,讲的是同时做出来det和des。特征点定位精度不高,速度也很慢,不过对光照等鲁棒性非常高,如下图所示。但是这个方法的弱点非常明显,定位精度不高,如下图红色圈出的地方,其实非常低的精度了。实际上用这个进行重建的实验结果表示还不如SIFT好。总结:坦白说这个方法几乎没有实际应用的场景,因为速度极其缓慢,而且精度很低,进行图像检索有更好
星云舰长
·
2022-02-20 22:16
论文解读
(DAEGC)《Improved Deep Embedded Clustering with Local Structure Preservation》
PaperInformationTitle:《AttributedGraphClustering:ADeepAttentionalEmbeddingApproach》Authors:ChunWang、ShiruiPan、RuiqiHu、GuodongLong、JingJiang、C.ZhangSource:2019,IJCAIOther:96Citations,42ReferencesPaper:
反差萌er
·
2022-02-19 12:00
CTR深度学习模型之 DSIN(Deep Session Interest Network)
论文解读
之前的文章讲解了DIEN模型:CTR深度学习模型之DIEN(DeepInterestEvolutionNetwork)的理解与示例,而这篇文章要讲的是DSIN模型,它与DIEN一样都从用户历史行为中抽取兴趣表示,但不同的是DSIN把历史行为划分成了不同的Session,并且使用Transformer对每个Session内的行为抽取特征。模型解读整体模型的结构如下:首先看看右下部分的矩形区域,这部分
VariableX
·
2022-02-18 07:25
CTR
相关
DSIN
CTR
推荐系统
深度学习
论文解读
(AGCN)《 Attention-driven Graph Clustering Network》
PaperInformationTitle:《Attention-drivenGraphClusteringNetwork》Authors:ZhihaoPeng,HuiLiu,YuhengJia,JunhuiHouSource:2021,ACMMultimediaOther:1Citations,46ReferencesPaper:DownloadCode:DownloadTask:DeepClu
反差萌er
·
2022-02-17 23:00
simCSE:
论文解读
image.png论文地址:https://arxiv.org/pdf/2104.08821.pdf论文标题:SimCSE:SimpleContrastiveLearningofSentenceEmbeddings基于对比学习的简单句子嵌入GitHub地址:https://github.com/princeton-nlp/SimCSE0、Abstract:本文介绍了一个简单的对比学习框架SimCS
涓涓自然卷
·
2022-02-17 17:55
Attention Is All You Need :
论文解读
image.png论文地址:https://arxiv.org/pdf/1706.03762.pdf论文名称:AttentionIsAllYouNeedGitHub链接:https://github.com/tensorflow/tensor2tensor0、摘要:主要的序列转导模型基于复杂的递归或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意机制连接编码器和解码器。我们提出了一种新的
涓涓自然卷
·
2022-02-16 21:51
BERT -
论文解读
BERT:【Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding】image.png论文地址:https://arxiv.org/pdf/1810.04805.pdf论文标题:Bert-BidirectionalEncoderRepresentationsfromTransformers一种从Transformers
涓涓自然卷
·
2022-02-16 10:02
ALBERT:
论文解读
ALBERT:【ALITEBERTFORSELF-SUPERVISEDLEARNINGOFLANGUAGEREPRESENTATIONS】作者.png论文地址:https://openreview.net/pdf?id=H1eA7AEtvSGitHub地址:https://github.com/google-research/ALBERT机构:谷歌0.摘要:在对自然语言表示进行预训练时,增加模型大
涓涓自然卷
·
2022-02-15 15:48
论文解读
(IDEC)《Improved Deep Embedded Clustering with Local Structure Preservation》
PaperInformationTitle:《ImprovedDeepEmbeddedClusteringwithLocalStructurePreservation》Authors:XifengGuo,LongGao,XinwangLiu,JianpingYinSources:2017,IJCAIOther:69Citations,71ReferencesPaper:DownloadCode:D
cute_Learner
·
2022-02-13 17:00
AFM 《Attentional Factorization Machines》
LearningtheWeightofFeatureInteractionsviaAttentionNetworks一.
论文解读
FMestimatesthetargetbymodellingallinteractionsbetweeneachpairoffeatures
_诉说
·
2022-02-12 14:14
ACL 2020 | 部分Transformer、BERT相关
论文解读
一、Transformer(一)更改连接方式HowDoesSelectiveMechanismImproveSelf-AttentionNetworks?哈工大刘挺组选择机制如何改善自我注意网络?背景:这是一篇解释性的文章。动机:近年来,在自注意力网络引入选择机制使得模型关注其中重要的输入元素已经取得很好的效果。但是,对于选择机制取得这样结果的原因尚不清楚。本文提出一个通用的基于选择机制的自注意力
可爱多多多_
·
2022-02-11 23:31
个人随笔
(一)
远方太远,活在当下!生活终究是亏欠了对你掏心掏肺的人,也检验了谁才会真正的对你好。我们有时候欠下的并不仅仅是金钱和物质层面,而我们能够偿还的又有什么呢?有些人有些事,是前世的因而铸造了今生的果,也为来世的报应埋下了深深的伏笔。世间的种种因果报应,皆是在规律中匍匐前行,我们能够做的,唯有把今生的因修炼好,而不是来世去抱怨命运的多舛。
流清散人
·
2022-02-11 05:25
人工智能艺术
论文解读
1
论文题目:ANeuralAlgorithmofArtisticStyle--一种艺术风格的神经网络算法发表日期:2015年9月概述在美术领域,尤其是绘画领域,人类已经掌握了通过图像内容和风格之间复杂的相互作用来创造独特视觉体验的技能。到目前为止,这个过程的算法基础是未知的,也没有人工系统具有类似的能力。然而,在其他关键领域,比如视觉目标检测和人脸识别,在人类最近的表现证明了一类生物视觉模型称为深度
0XFFFF
·
2022-02-09 10:21
个人随笔
日记
夜深了,我独自在这漆黑的夜晚里徘徊,又开始了我的写作之旅,好像时间久不提笔了,脑子里一片空白,不知道该往哪儿下笔?更不知该往哪儿入门?生活在继续着,每个人都有毎个人的追求,有每个人的梦想,有每个人的活法,生活就像是在拍一部又一部的电影一样,一个人一个故事,每个人的故事情节都不一样?时间对我们毎个人都是公平的,可让大家都活成了不一样的人生……自从有了家庭和孩子后,生活也发生了巨大的变化,没有了属于自
天道酬勤_9928
·
2022-02-06 14:06
2020AI顶会的腾讯
论文解读
| 多模态学习、视频内容理解、对抗攻击与对抗防御等「AI核心算法」
关注:决策智能与机器学习,深耕AI脱水干货报道|腾讯AI实验室计算机视觉领域三大顶会之一的ECCV(欧洲计算机视觉会议)今年于8月23-28日举办。受新冠肺炎疫情影响,今年的ECCV与CVPR一样是完全的线上会议。近日,ECCV2020公布了论文收录情况:https://eccv2020.eu/accepted-papers。据统计,本届ECCV共收到有效投稿5025篇,是ECCV2018论文投稿
九三智能控v
·
2022-02-04 17:20
卷积
卷积神经网络
大数据
python
计算机视觉
会话式知识库问答的焦点实体转换建模
©原创作者|朱林
论文解读
:ModelingTransitionsofFocalEntitiesforConversationalKnowledgeBaseQuestionAnswering论文作者:YunshiLan
NLP论文解读
·
2022-02-03 18:00
论文解读
(GAN)《Generative Adversarial Networks》
PaperInformationTitle:《GenerativeAdversarialNetworks》Authors:IanJ.Goodfellow,JeanPouget-Abadie,M.Mirza,BingXu,DavidWarde-Farley,SherjilOzair,AaronC.Courville,YoshuaBengioSources:2014,NIPSOther:26700Ci
cute_Learner
·
2022-02-03 17:00
论文解读
(DEC)《Unsupervised Deep Embedding for Clustering Analysis》
PaperInformationAuthors:JunyuanXie,RossB.Girshick,AliFarhadiSource:2015,ICMLOther:1243Citations,45ReferencesCode:DownloadPaper:DownloadAbstract在本文中,我们提出了DeepEmbeddedClustering(DEC),一种使用深度神经网络同时学习featu
cute_Learner
·
2022-01-12 20:00
论文解读
(GraRep)《GraRep: Learning Graph Representations with Global Structural Information》
论文题目:《GraRep:LearningGraphRepresentationswithGlobalStructuralInformation》发表时间:CIKM论文作者:ShaoshengCao;WeiLu;QiongkaiXu论文地址:DownloadGithub:GoAbstract在本文中,我们提出了一种新的学习加权图顶点表示的GraRep模型。该模型学习低维向量来表示出现在图中的顶点,
希望每天涨粉
·
2021-12-08 21:00
CPN服饰关键点论文及代码解读(keras)
服饰关键点
论文解读
这里我们拿github上的FashionAI_KeyPoint_Detection_Challenge_Keras这个项目来做分析。
blackmanba_084b
·
2021-12-08 14:20
[
论文解读
]CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue Dataset
跨领域任务导向型对话的大规模中文数据集CrossWOZ文章标题:CrossWOZ:ALarge-ScaleChineseCross-DomainTask-OrientedDialogueDataset论文链接:https://arxiv.org/pdf/2002.11893.pdfgithub链接:https://github.com/thu-coai/CrossWOZ相关链接:https://c
涓涓自然卷
·
2021-12-08 12:41
论文解读
(SDNE)《Structural Deep Network Embedding》
论文题目:《StructuralDeepNetworkEmbedding》发表时间:KDD2016论文作者:AdityaGrover;AdityaGrover;JureLeskovec论文地址:DownloadGithub:Go1、Go2ABSTRACTMotivation由于底层网络结构复杂,Shallowmodel无法捕捉高度非线性的网络结构,导致网络表示次优。因此,如何找到一种能够有效捕捉高
希望每天涨粉
·
2021-12-06 11:00
PixPro自监督
论文解读
PixPro是第一个通过像素级对比学习来进行特征表示学习上图是整个算法流程图,接下来进行详细解析前向传播input是输入图像,维度尺寸是(b,c,h,w)augmentation:通过对同一张input进行随机大小、位置裁剪并缩放到统一大小224*224,并基于一定概率下进行随机水平翻转、colordistortion、高斯模糊和solarization操作,最后生成两张不同视图view#1和vi
·
2021-11-29 16:31
深度学习pytorch图像识别
ICCV2021 | Swin Transformer: 使用移位窗口的分层视觉Transformer
本文来自公众号CV技术指南的论文分享系列关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典
论文解读
。
CV技术指南(公众号)
·
2021-11-28 15:00
Adaptive Personalized Federated Learning
论文解读
+代码解析
论文地址点这里一.介绍联邦学习强调确保本地隐私情况下,对多个客户端进行训练,客户端之间不交换数据而交换参数来进行通信。目的是聚合成一个全局的模型,使得这个模型再各个客户端上读能取得较好的成果。联邦学习中FedAvg方法最为广泛,但由于本地数据分片之间的固有多样性和数据再客户端的高度非iid(独立同分布),FedAvg对超参数非常敏感,不能从良好的手链保证中获益。因此在设备异质性存在的情况下,全局模
编程龙
·
2021-11-27 16:07
每日一次AI论文阅读
联邦学习
个性化联邦学习
APFL
pytorch
ICCV2021 | SOTR:使用transformer分割物体
本文来自公众号CV技术指南的论文分享系列关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典
论文解读
。论文:SOTR:Se
CV技术指南(公众号)
·
2021-11-26 12:00
论文解读
(node2vec)《node2vec Scalable Feature Learning for Networks》
论文题目:《node2vecScalableFeatureLearningforNetwork》发表时间:KDD2016论文作者:AdityaGrover;AdityaGrover;JureLeskovec论文地址:DownloadGithub:Go概述node2vecisanalgorithmicframeworkforrepresentationallearningongraphs.Given
希望每天涨粉
·
2021-11-26 08:00
论文解读
(LLE)《Nonlinear Dimensionality Reduction by Locally Linear Embedding》and LLE
论文题目:《NonlinearDimensionalityReductionbyLocallyLinearEmbedding》发表时间:Science2000论文地址:Download简介局部线性嵌入(LocallyLinearEmbedding,简称LLE)重要的降维方法。传统的PCA,LDA等方法是关注样本方差的降维方法,LLE关注于降维时保持样本局部的线性特征,由于LLE在降维时保持了样本的
希望每天涨粉
·
2021-11-21 20:00
ICCV2021 | Vision Transformer中相对位置编码的反思与改进
本文来自公众号CV技术指南的论文分享系列关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典
论文解读
。
CV技术指南(公众号)
·
2021-11-20 16:00
论文解读
(LINE)《LINE: Large-scale Information Network Embedding》
论文题目:《LINE:Large-scaleInformationNetworkEmbedding》发表时间:KDD2015论文作者:JianTang,MengQu,MingzheWang,MingZhang,JunYan,QiaozhuMei论文地址:Download前言大规模信息网络(large-scaleinformationNetwork)无论在存取性,使用性上比起普通的信息处理方式更加复
希望每天涨粉
·
2021-11-18 17:00
论文解读
(LINE)《LINE: Large-scale Information Network Embedding》
论文题目:《LINE:Large-scaleInformationNetworkEmbedding》发表时间:KDD2015论文作者:JianTang,MengQu,MingzheWang,MingZhang,JunYan,QiaozhuMei论文地址:Download前言大规模信息网络(large-scaleinformationNetwork)无论在存取性,使用性上比起普通的信息处理方式更加复
希望每天涨粉
·
2021-11-18 17:00
论文解读
(DeepWalk)《DeepWalk: Online Learning of Social Representations》
一、基本信息论文题目:《DeepWalk:OnlineLearningofSocialRepresentations》发表时间:KDD2014论文作者:BryanPerozzi、RamiAl-Rfou、StevenSkiena论文地址:https://dl.acm.org/citation.cfm?id=2623732二、前言普通的邻接矩阵在存储的关系很多时,纬度将变得很高,而进行矩阵分解是一个相
希望每天涨粉
·
2021-11-14 11:00
AAAI2021
论文解读
:Distilling Localization for Self-Supervised Representation Learning
这篇论文的核心是通过显著性估计的方法将图像前景粘贴到其他背景图像中,进行对比学习,对比学习部门完全沿用现用方法,所以应用在下游任务如检测,单实例多实例的矛盾仍然没有解决,但是本文尝试解决解决的是通过复制粘贴的方式学到背景不变性,学到了背景不变性意味着模型学习到了区分前后景,对检测任务是有帮助的。摘要:现有的自监督学习的一大缺陷是无法定位前景目标,导致其无法提取有判别力的高级特征。本文提出的方法是先
赵小闹闹
·
2021-11-02 09:22
RNN浅谈
RNN文章目录RNN参考RNN解决了什么问题RNN的结构RNN的特点RNN的损失函数RNN的反向传播RNN的缺点参考循环神经网络RNN
论文解读
一文搞懂RNN(循环神经网络)基础篇【重温系列】RNN循环神经网络及其梯度消失手把手公式推导
椰子奶糖
·
2021-10-28 20:56
论文阅读杂记
rnn
神经网络
深度学习
【ICNP2020】6Fit-A-Part: A Protocol for Physical Distancing on a Custom Wearable Device
论文解读
Apeer-peernetworkrangingprotocolwithnocentralcoordinator一、前言论文选于ICNP2020(InternationalConferenceonNetworkProtocols).作者利用UWB设计了一种用于对等网络节点间的测距协议,协议可用于小型嵌入式设备。论文背景为新冠肺炎疫情下,如何保证医院、工厂、杂货店等公共场所的工作人员保持社交距离。他
翡翠的风吟
·
2021-10-24 12:28
无人系统
1024程序员节
网络协议
嵌入式设备
网络编程
Feed-Forward Layers
论文解读
:DoYouEvenNeedAttention?开源代码:DoYouEvenNeedAttention?
HHzdh
·
2021-10-19 10:25
PyTorch-MLP
深度学习
机器学习
人工智能
The Google File System(GFS)学习笔记
文章目录引子GFS的架构读数据写数据流水线式的网络数据传输记录追加总结引子这篇文章是我学习极客时间徐文浩老师的《大数据经典
论文解读
》课程的学习笔记,大量的文字和图片来自专栏内容,如有侵权就删。
zhanyd
·
2021-10-11 16:17
计算机基础
GFS
带你读论文丨基于视觉匹配的自适应文本识别
摘要:ECCV2020通过视觉匹配的方法来做文本识别,解决文档识别中的文本识别多样性和泛化性问题本文分享自华为云社区《
论文解读
二十三:基于视觉匹配的自适应文本识别》,作者:wooheng。
·
2021-10-04 16:04
论文解读
- An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
目前我认为在分类领域上,最有研究价值的是ResNet、Transformer。一个是从Paperswithcode的benchmark判断,另外一个是对以往DenseNet、Inception等网络的实验。深度学习从2012年的AlexNet开始,然后是VGG,网络是往更深的方向发展,直到遇到一个问题,网络越深,模型性能开始下降。在排除了梯度消失/爆炸以及过拟合问题之后,发现是网络的优化困难问题。
XianxinMao
·
2021-09-22 15:34
Neural
Network
人工智能
计算机视觉
深度学习
自然语言处理
神经网络
Distilling Holistic Knowledge with Graph Neural Networks
论文解读
这是一篇ICCV2021的文章,提出了一种新的知识蒸馏方式(HolisticKnowledgeDistillation)原文链接代码链接Figure1为Individual、Relational、HolisticKnowledgeDistillation三种不同的知识蒸馏方式的区别.这里根据RelationalKnowledgeDistillation解读以及RelationalKnowledge
Daft shiner
·
2021-09-19 15:43
可解释
深度学习
神经网络
经典网络模型 ResNet-50 在 ImageNet-1k 上的研究 | 实验笔记+
论文解读
需要ImageNet-1k数据集的来这篇博文:https://blog.csdn.net/qq_39377134/article/details/103128970但是要准备好240GB大小的磁盘空间哈,因为数据集压缩包是120GB多一些。本文是关于ResNet-50在ImageNet上的实验研究,目前的话,实验数据集分别是ImageNet-240和ImageNet-1k,其中前者是后者的一个子集
XianxinMao
·
2021-09-17 09:54
神经网络与深度学习
深度学习
pytorch
机器学习
上一页
33
34
35
36
37
38
39
40
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他