E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
论文理解
《Unet》
论文理解
题外话\quadUnet是受到FCN启发针对医学图像做语义分割,且可以利用少量的数据学习到一个对边缘提取十分鲁棒的模型,在生物医学图像分割领域有很大作用。网络架构这就是整个网络的结构,大体分为收缩和扩张路径来组成。因为形似一个字母U,得名Unet。收缩路径仍然是利用传统卷积神经网络的卷积池化组件,其中经过一次下采样之后,channels变为原来的2倍。扩张路径由2*2的反卷积,反卷机的输出通道为原
just_sort
·
2020-06-23 23:55
深度学习论文阅读及算法详解
语义分割
联邦学习学习笔记——
论文理解
《Communication-Efficient Learning of Deep Networks from Decentralized Data》
Google—FederatedLearning原文:《Communication-EfficientLearningofDeepNetworksfromDecentralizedData》最近研读了这篇提出了联邦学习(FederatedLearning)的文章,内容主要是对原文的理解和整理,希望能帮助正在了解联邦学习的小伙伴们。⚠️笔者也是刚开始了解FL,所以也可能有些地方理解不到位或有错误,者
biongbiongdou
·
2020-06-22 18:55
论文阅读笔记
关注公号:AI深度视线 | EfficientDet:
论文理解
,MAP50.9目前最高,模型小4倍!
精彩内容EfficientDet-d6在52M参数和229BFLOPs的情况下,实现了map在COCO数据集的最高水平(50.9),比之前最好的检测器更小,使用更少的FLOPs(13xlessFLOPs),但仍然更准确(+0.2%mAP)。传送门:https://github.com/google/automl/tree/master/efficientdet1引言模型效率在计算机视觉中变得越来越
关注公众号‘AI深度视线’
·
2020-06-22 17:01
CNN
卷积神经网络
DeepIM: Deep Iterative Matching for 6D Pose Estimation
论文理解
文章目录解决什么问题本文创新点\贡献前人方法本文IDEA来源方法方法概述High-resolutionZoomIn目的步骤UntangledTransformationRepresentation目标分析旋转位移优点数据准备训练网络参数设置训练和测试LossPointMatchingLossmask和光流loss总loss实验度量消融实验迭代缩放regressorNetworkCoordinatl
KirutoCode
·
2020-06-22 01:25
6DEoF
【6Dof位姿估计】DenseFusion: 6D Object Pose Estimation by Iterative Dense Fusion
论文理解
DenseFusion:6DObjectPoseEstimationbyIterativeDenseFusion
论文理解
本文创新点\贡献本文IDEA来源方法方法概述特征提取DensecolorimagefeatureembeddingDense3DpointcloudfeatureembeddingPixel-wiseDenseFusion
KirutoCode
·
2020-06-22 01:25
6DEoF
【视频目标分割】FEELVOS: Fast End-to-End Embedding Learning for Video Object Segmentation
论文理解
FEELVOS:FastEnd-to-EndEmbeddingLearningforVideoObjectSegmentation
论文理解
本文创新点\贡献本文IDEA来源设计目标方法SemanticEmbeddingGloabmatchLocalmatchDynamicSegmentationHead
KirutoCode
·
2020-06-22 01:25
VOS
论文理解
:Generating Diverse High-Fidelity Images with VQ-VAE-2
深度生成模型都有什么问题研究者将常见的生成模型分为两种:一种是基于似然的模型,包括VAE及其变体、基于流的模型、以及自回归(autoregressive)模型,另一种是隐式生成模型,如生成对抗网络(GAN)。这些模型都会存在某些方面的缺陷,如样本质量、多样性、生成速度等。GAN利用生成器和判别器来优化minimax目标函数,前者通过将随机噪声映射到图像空间来生成图像,后者通过分辨生成器生成的图像是
Sanven?
·
2020-06-21 20:07
GAN论文解读
论文理解
之图像分区域合成 SEAN: Image Synthesis with Semantic Region-Adaptive Normalization
本论文要解决的问题是使用条件生成对抗网络(cGAN)生成合成图像。具体来说,本文要完成的具体任务是使用一个分割掩码控制所生成的图像的布局,该分割掩码的每个语义区域都具有标签,而网络可以根据这些标签为每个区域「添加」具有真实感的风格。尽管之前已经有一些针对该任务的框架了,但当前最佳的架构是SPADE(也称为GauGAN)。因此,本论文的研究也是以SPADE为起点的。具体来说,本文针对原始SPADE的
Sanven?
·
2020-06-21 20:07
GAN论文解读
论文理解
之增加换脸效果 FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping
论文:FaceShifter:TowardsHighFidelityAndOcclusionAwareFaceSwapping论文地址:https://arxiv.org/pdf/1912.13457.pdf换脸是非常吸引人的一种应用,开发者可以用VAE或GAN做出非常炫酷的效果。一般而言,换脸会将A脸特征换到B脸上,同时保留B脸的神情或动态。像FaceSwap这样开源项目已经能生成非常真实的假脸
Sanven?
·
2020-06-20 22:20
GAN论文解读
神经网络
PointNet代码详解
三维深度学习之pointnet系列详解PointNet网络结构详细解析PointNet
论文理解
和代码分析PointNet论文复现及代码详解这里着重来探讨一下内部的代码(pointnet-master\models
moumde
·
2020-06-02 17:19
深度学习
tensorflow
python
神经网络
DSST详解
最开始的应该是MOOSE,作者没有给源码,所以
论文理解
得并不是很透彻,CSK以及KCF/DCF都是仔细研究了源码的,自认为还算比较了解了,接下来的CN,其实了解了KCF/DCF就
和蔼的zhxing
·
2020-03-29 07:12
[
论文理解
] How much position information do convolutional neural network encode?
Howmuchpositioninformationdoconvolutionalneuralnetworkencode?Intro文章是ICML2020的一个工作,探究了CNN到底有没有编码位置信息,这些位置信息在哪些神经元中被编码、这些位置信息又是如何被暴露给神经网络学习的。文章通过大量实验表明,CNN不仅可以编码位置信息,而且越深的层所包含的位置信息越多(而往往越深的层解释性越差,浅层学习到
aoru45
·
2020-02-04 01:00
[
论文理解
] Convolution with even-sized kernels and symmetric padding
Convolutionwitheven-sizedkernelsandsymmetricpaddingIntro本文探究了偶数kernelsize的卷积对网络的影响,结果表明偶数卷积在结果上并不如奇数卷积。文章从实验与原理上得出结论,偶数卷积之所以结果更差,是因为偶数卷积会使得featuremap偏移,即“theshiftproblem”,这将导致学习到的feature不具备更强的表征能力。本文提
aoru45
·
2020-02-02 21:00
[
论文理解
] Destruction and Construction Learning for Fine-grained Image Recognition
DestructionandConstructionLearningforFine-grainedImageRecognitionIntro本文提出一种细粒度图像分类的方法,即将原图像拼图一样shuffle成不同的block,丢进一个分类器,当然,直接这样训练会引入shuffle带来的无关噪声,所以又加上了adversariallearning和constructionlearning,类比自编码
aoru45
·
2020-02-02 03:00
[
论文理解
] Noise2Noise: Learning Image Restoration without Clean Data
Noise2Noise:LearningImageRestorationwithoutCleanDataIntro本文亮点是输入图像和target图像都是有噪声的图像,而不是clean的图像,网络可以利用有噪声的图像学习到将有噪声的图像转化为无噪声的clean图像。文章解释了在使用l2loss时,网络对于一对多的映射关系学习到的是映射值的均值,基于此idea,将clean的图像加上0均值的噪声作为
aoru45
·
2020-02-01 21:00
[
论文理解
] On the "steerability" of generative adversarial networks
Onthe"steerability"ofgenerativeadversarialnetworksIntro本文提出对GAN的latentspace进行操作的一种方法,通过对latentspace的编辑实现生成域外样本,操控生成样本的基本属性,如控制生成样本的位置、光照、二维旋转、三维旋转等等。文章的主要贡献为:证明并实现了通过在latentspace中的“walk”能够实现类似人类世界中相机的
aoru45
·
2020-01-30 23:00
[
论文理解
] Automatic fabric defect detection using a deep convolutional neural network
AutomaticfabricdefectdetectionusingadeepconvolutionalneuralnetworkIntro本文提出用于纺织品的瑕疵检测方法,将原始图片看成由若干patch组成的图片,利用对patch间距离的定义,求取二阶微分的最大值,进而得到最佳patchsize。然后,由于正负样本极度不均衡,作者对负样本的patch进行增广,使得正负样本满足3:2的比例,最后
aoru45
·
2020-01-30 20:00
[
论文理解
] Making Convolutional Networks Shift-Invariant Again
MakingConvolutionalNetworksShift-InvariantAgainIntro本文提出解决CNN平移不变性丧失的方法,之前说了CNN中的downsample过程由于不满足采样定理,所以没法确保平移不变性。信号处理里面解决这样的问题是利用增大采样频率或者用抗混叠方法,前者在图像处理里面设置stride1就可实现,但stride1已经是极限,本文着重于后者,使用抗混叠使得CN
aoru45
·
2020-01-23 03:00
[
论文理解
] Why do deep convolutional networks generalize so poorly to small image transformations?
Whydodeepconvolutionalnetworksgeneralizesopoorlytosmallimagetransformations?IntroCNN的设计初衷是为了使得模型具有微小平移、旋转不变性,而实际上本文通过实验验证了现在比较流行的神经网络都已经丧失了这样的能力,甚至图像只水平移动一个像素,预测的结果都将会发生很大的变化。之所以如此,作者认为CNN的下采样背离了隆奎斯特采
aoru45
·
2020-01-21 19:00
【
论文理解
】End-to-end Recovery of Human Shape and Pose
End-to-endRecoveryofHumanShapeandPosecvpr2018的文章,有道云笔记:http://note.youdao.com/noteshare?id=2514205ee272234c20a29e92aedb089b下载地址:https://arxiv.org/pdf/1712.06584.pdf学习参考:https://blog.csdn.net/weixin_44
SandraZZ
·
2019-12-16 12:29
【
论文理解
】Detailed Human Shape Estimation from a Single Image by Hierarchical Mesh Deformation
CVPR2019论文链接:https://arxiv.org/pdf/1904.10506.pdf源码:https://github.com/zhuhao-nju/hmd译文:http://tongtianta.site/paper/40353什么是锚点(anchorpoint):https://blog.csdn.net/timwolee/article/details/9370917参考资料:
SandraZZ
·
2019-12-12 13:35
语义分割算法之DeepLabV3+
论文理解
及代码分析
#前言之前讲了DeepLabV1,V2,V3三个算法,DeepLab系列语义分割还剩下最后一个DeepLabV3+,以后有没有++,+++现在还不清楚,我们先来解读一下这篇论文并分析一下源码吧。论文地址:https://arxiv.org/pdf/1802.02611.pdf#背景语义分割主要面临两个问题,第一是物体的多尺度问题,第二是DCNN的多次下采样会造成特征图分辨率变小,导致预测精度降低,
GiantPandaCV
·
2019-12-04 09:31
[
论文理解
] FoveaBox: Beyond Anchor-based Object Detector
FoveaBox:BeyondAnchor-basedObjectDetectorIntro本文是一篇one-stageanchorfree的目标检测文章,大体检测思路为,网络分两路,一路预测k个channel的map,每个channel代表一个类别的概率,即输出为w×h×k,另一路预测位置,输出即为w×h×4。想法其实很容易想到,但是本文之所以work我认为很重要的一个trick是gtlabel
aoru45
·
2019-11-27 00:00
SSD
论文理解
原文链接:https://blog.csdn.net/weixin_30545285/article/details/95697809SSD论文贡献:1.引入了一种单阶段的检测器,比以前的算法YOLO更准更快,并没有使用RPN和Pooling操作;2.使用一个小的卷积滤波器应用在不同的featuremap层从而预测BB的类别的BB偏差;3.可以在更小的输入图片中得到更好的检测效果(相比Faster
春暖and花开
·
2019-09-18 15:21
深度学习
[
论文理解
] CBAM: Convolutional Block Attention Module
CBAM:ConvolutionalBlockAttentionModule简介本文利用attention机制,使得针对网络有了更好的特征表示,这种结构通过支路学习到通道间关系的权重和像素间关系的权重,然后乘回到原特征图,使得特征图可以更好的表示。ConvolutionalBlockAttentionModule这里的结构有点类似与SENet里的支路结构。对于Channelattentionmod
weixin_30664615
·
2019-09-12 02:00
深度网络中的目标检测算法SSD系列-SSD
论文理解
一、简述单个深度神经网络来做目标检测。(加速)将boundingboxes输出离散化,为在每一个featuremap上的一组不同长宽比及不同尺寸的一组默认边框。在预测阶段:计算出每一个defaultbox中的目标,其属于每个类别的可能性,即score(得分)。如对于poscalvoc数据集,总共有20类,那么得出每一个boundingboxes中物体属于这20个类别的每一种的可能性。同时。要对这些
AN ZE
·
2019-07-20 22:45
目标检测
深度学习
深度网络中的目标检测算法YOLO系列-YOLOv3
论文理解
一、简述将好的方案进行融合到YOLO中.改进:调整了网络结构;利用多尺度特征进行对象检测,对象分类用logigtic取代了softmax。二、新的网络结构Darknet53在基本的图像特征提取方面,YOLOv3采用了Darknet63(含有53个卷积层),借鉴了残差网络resnet的做法。三、利用多尺度特征进行检测使用了3个不同尺度的卷积图来进行目标检测。卷积网络在79层后,经过n个卷积层得到一种
AN ZE
·
2019-07-18 23:00
目标检测
深度学习
深度网络中的目标检测算法YOLO系列-YOLOv2
论文理解
一、简述YOLOv2---YOLO9000YOLO9000可以检测超过9000种类别的实时检测系统。采用多尺度训练方法,YOLOv2可以根据速度和精度需求调整输入尺寸。目标检测和分类的共训练方法,采用该方法使得可以实时检测9000类别。Better-更好1、BatchNormalization—批标准化提高了网络收敛性。通过对YOLO的每一个卷积层增加Batchnormalization,去掉Dr
AN ZE
·
2019-07-18 22:04
目标检测
深度学习
Deep RNN
论文理解
有效堆叠RNN两个亮点设计:1、RBM(时间方向和空间表征方向),分离信息,平衡两个方向(时空),有效的同时获取时空特征信息2、OverlapCoherenceTrainingScheme(降低训练复杂性)想做的事:构建深度RNN,互适应得到两个flow优点结合RNN和DNN的优点。更深的RNN,直接堆叠多个RNN层会有两个问题:1、在结构上:表征流和时间流(空间上和时间上)互相缠绕混乱。使得模型
MrWei108
·
2019-07-04 17:44
深度学习
风格迁移学习笔记
(done)对照代码、Blog和
论文理解
相应的算法过程规划下一步,修改代码(done),实现预计功能(done)调参,跑出较好ProblemQueue算法和代码对应?细化?(尽量搞吧。。。
dehukun0483
·
2019-06-12 16:00
MobileNetV3
论文理解
,以及tensorflow、pytorch相关代码
MobileNetV3
论文理解
,以及tensorflow+pytorch代码MobileNetV3相关论文地址Block结构变化算法内部微结构变化网络整体结构网络性能Tensorflow代码Pytorch
Philip_Gao
·
2019-05-10 12:44
深度学习
视频超分辨
论文理解
:Frame-Recurrent Video Super-Resolution
该文是2019年CVPR上的视频超分辨论文。该文章主要是针对以前视频超分辨的缺点:将视频超分辨问题看作是大量的单独的多帧超分辨任务。每个多帧超分辨任务负责根据输入的多帧LR图像生成一个HR图像,这样产生的各个HR图像之间由于缺乏联系,在时间连续性上比较差,出现伪影。同时这样做的计算复杂度比较高。于是,作者提出在生成下一帧图像时,考虑之前生成的HR图像,将其也输入网络,这样不仅能产生时间连续的结果,
qq_33590958
·
2019-04-29 00:19
一周论文泛读总结20190415-20190421
1LearningtoCompare:RelationNetworkforFew-ShotLearning参考LearningtoCompare:RelationNetworkforFew-ShotLearning
论文理解
一种相似度学习方法将待检测图片特征与
CsdnWujinming
·
2019-04-23 16:37
reid
目标跟踪
论文泛读
一周论文泛读总结20190415-20190421
1LearningtoCompare:RelationNetworkforFew-ShotLearning参考LearningtoCompare:RelationNetworkforFew-ShotLearning
论文理解
一种相似度学习方法将待检测图片特征与
CsdnWujinming
·
2019-04-23 16:37
目标跟踪
reid
[
论文理解
]使用cGAN来实现图到图变换
Image-to-ImageTranslationwithConditionalAdversarialNetworks问题:欧几里得距离会导致"模糊"的现象,因为它是在所有训练集上取平均得到的。CGAN是一种解决方法:其结构为:传统的GAN是这样的,等式右边第一项少了x:同时尝试利用L1距离来减少“blurring”,最终的目标函数长这样:U-net被用于图像分割,在我之前关于NatureGAN的
BonjourDurant
·
2019-03-12 14:15
GAN
李宏毅ML lecture-10 CNN
李宏毅MLlecture-10CNNConvolutionstridepaddingMaxPoolingflattenFullyConnectedFeedforwardCNN的直观理解相关
论文理解
CNN
Arron_hou
·
2019-02-21 00:55
机器学习
深度学习
InfoGAN
论文理解
及复现
InfoGAN
论文理解
及复现byAHURandom_Walker主要从四个方面来了解相关工作,即MotivationRelatedWork-MethodExperimentsConclusion然后有三个过程来复现代码
Feynman1999
·
2019-01-18 19:26
generate
Generative
Adversarial
Networks
Essay
Grid RCNN
论文理解
GridRCNN商汤11月份提出的论文。论文下载地址:https://arxiv.org/abs/1811.12030论文代码复现:论文创新点:1.使用了全卷积网络来代替目标检测里面的全连接层。2.加入了融合机制使得标注框更加的精确。算法整体流程:算法的整体流程经过RPN找到候选区域,然后通过感兴趣区域得到特征图。将特征图传到全卷积网络层里面输出最终的结果。论文主要分为三部分:一、网格引导定位这个
donkey_1993
·
2019-01-11 10:36
深度学习
唧唧堂:JF、JFE创刊以来最经典论文50篇
好不容易读完了,却不知道自己对
论文理解
是否正确?这些大概是研究人读文献最常见的问题了,怎么办?订阅唧唧堂论文阅读单就对啦!每月精选论文,消灭选文焦虑!原创测试卷,助你把握论文重点!
唧唧堂
·
2019-01-07 00:00
Anchors:High-Precision Model-Agnostic Explanations——可解释机器学习
论文理解
一
2018年10月AAAI上的一篇论文,该作者在2016年发表了一篇LIME,是一种局部可解释模型,可解释任何分类模型。本篇Anchors是LIME的延续,指出了LIME中线性模型无法确定覆盖度(后文详细解释)的缺点,并设计Anchors,以规则集合描述模型的局部行为,使得用户能根据这些充分条件来推测模型的行为,预测模型的分类结果。接下来,以翻译加总结的方式记述下自己对这篇论文的理解。摘要本文(下文
吃辣椒的猪
·
2019-01-03 11:57
论文学习
ssd算法
论文理解
原文链接:http://www.cnblogs.com/cmai/p/10076050.html这篇博客主要是讲下我在阅读ssd论文时对论文的理解,并且自行使用pytorch实现了下论文的内容,并测试可以用。开篇放下论文地址https://arxiv.org/abs/1512.02325,可以自行参考论文。接着放下我使用pytorch复现的版本地址https://github.com/acm565
a14780429533
·
2018-12-06 22:00
YOLO学习:YOLO v2
论文理解
采用了一种多尺度的训练方法。保持分类精度的同时提高YOLO检测的召回率改进:批量处理的标准化:高分辨率:先进的分类模型均采用了预训练的方式(ImageNet),对于AlexNet使用了小于256*256的图片。本次将YOLO的处理的图片由原始的224*224提高到448*448。对其训练优先利用ImageNet的数据进行10次迭代来进行微调,可以调高精度AnchorBox:YOLO是将输入的图片经
ChouPiJang
·
2018-11-29 17:56
计算机视觉
YOLO学习:YOLO v2
论文理解
采用了一种多尺度的训练方法。保持分类精度的同时提高YOLO检测的召回率改进:批量处理的标准化:高分辨率:先进的分类模型均采用了预训练的方式(ImageNet),对于AlexNet使用了小于256*256的图片。本次将YOLO的处理的图片由原始的224*224提高到448*448。对其训练优先利用ImageNet的数据进行10次迭代来进行微调,可以调高精度AnchorBox:YOLO是将输入的图片经
ChouPiJang
·
2018-11-29 17:56
计算机视觉
Aggregated Residual Transformations for DeepNeural Networks -ResNetXt2017【
论文理解
】
文章目录前言重新思考神经元思考inception结构设计新的blocks设计网络结构与性能参考前言这是残差家族的新的成员,在残差网络结构的设计中加入了“基数Cardinality”的概念,本质上就是分组卷积groupconvolution的运用,分组卷积最早的提出是在AlexNet中,是为了解决显存不够大的问题而提出的。具有相同网络拓扑结构的模块堆叠而成,在ImageNet分类中性能上优于ResN
chestnut--
·
2018-11-29 14:32
ResNetXt
deeplearning
深度学习笔记
YOLO学习:YOLO v1
论文理解
概括:YOLO在设计中摒弃了采用先进行目标检测再进行目标识别的方法,而是利用回归通过神经网络进行一次的估计输出目标所在的boundingbox(框)以及class(类别)。统一检测:()将输入图片进行划分,得到S*S个栅格()每个栅格单元可以预测B个boundingbox以及各个boundingbox置信度P:其中IOU为系统预测出的框与原来标出的框的重合程度:()同时,每个栅格也用于计算C个关于
ChouPiJang
·
2018-11-28 14:38
计算机视觉
YOLO学习:YOLO v1
论文理解
概括:YOLO在设计中摒弃了采用先进行目标检测再进行目标识别的方法,而是利用回归通过神经网络进行一次的估计输出目标所在的boundingbox(框)以及class(类别)。统一检测:()将输入图片进行划分,得到S*S个栅格()每个栅格单元可以预测B个boundingbox以及各个boundingbox置信度P:其中IOU为系统预测出的框与原来标出的框的重合程度:()同时,每个栅格也用于计算C个关于
ChouPiJang
·
2018-11-28 14:38
计算机视觉
R-FCN
论文理解
R-FCN:Region-basedFullyConvolutionalNetworks记录提出R-FCN的理由:fasterrcnn的速度太慢,其原因在于region-wise的计算量太大。作者想要采用全卷积的结构,实现所有计算在分类和定位网络上的共享。作者尝试简单的将分类和定位子网的隐藏层去掉,结果并不好,原因就在于分类的平移不变性和定位的平移可变性。平移不变性vs平移可变性:对于分类任务而言
IreneGu1
·
2018-11-18 19:10
目标检测
唧唧堂:来,测一测你的论文阅读能力!
好不容易读完了,却不知道自己对
论文理解
是否正确?这些大概是研究人读文献最常见的问题了,怎么办?订阅唧唧堂论文阅读单就对啦!每月精选论文,消灭选文焦虑!原创测试卷,助你把握论文重点!
唧唧堂
·
2018-10-21 00:00
唧唧堂经济学推荐论文阅读单第2期,开放订阅!
好不容易读完了,却不知道自己对
论文理解
是否正确?这些大概是研究人读文献最常见的问题了,怎么办?订阅唧唧堂论文阅读单就对啦!每月精选论文,消灭选文焦虑!原创测试卷,助你把握论文重点!
唧唧堂
·
2018-10-10 00:00
avod
论文理解
与代码解读
AVOD
论文理解
与代码解读论文简析概述网络结构BEVmap特征提取rpn网络特征融合第二阶段检测网络box编码方向确定代码解读anchor的产生minibatch的产生与作用rpnmodelavodmodelloss
月韵清风
·
2018-10-09 16:00
深度学习
上一页
1
2
3
4
5
6
7
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他