E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cs.CV论文笔记
论文笔记
:Friend Recommendation Considering Preference Coverage in Location-Based Social Networks
一、基本信息论文题目:《FriendRecommendationConsideringPreferenceCoverageinLocation-BasedSocialNetworks》发表时间:PAKDD2018论文作者及单位:论文地址:https://link.springer.com/chapter/10.1007%2F978-3-319-57529-2_8二、摘要在基于位置的社交网络中,朋友
塘朗老实人
·
2023-01-16 08:16
推荐系统会议论文
推荐系统
论文笔记
:SPGLAD: A Self-paced Learning-Based Crowdsourcing Classification Model
一、基本信息论文题目:《SPGLAD:ASelf-pacedLearning-BasedCrowdsourcingClassificationModel》发表时间:PAKDD2018论文作者及单位:论文地址:https://link.springer.com/chapter/10.1007/978-3-319-67274-8_17二、摘要像亚马逊的MechanicalTurk这样的众包平台为在图像分
塘朗老实人
·
2023-01-16 08:16
推荐系统会议论文
推荐系统
机器学习笔记 soft-DTW(
论文笔记
A differentiable loss function for time-series)
1soft-DTW来由DTW算法通过动态规划求解了两个序列的相似度。这个过程1是离散的,不可微的。如果要将其应用作为神经网络的损失函数,这是不行的。因为神经网络通过对损失函数结果进行梯度下降的方法,更新参数,要求损失函数可微。2符号说明论文“Adifferentiablelossfunctionfortime-series”(2017ICML)中使用了Softminimum来代替DTWminimu
UQI-LIUWJ
·
2023-01-16 04:50
论文笔记
机器学习
机器学习
算法
人工智能
论文笔记
Shape and Time Distortion Loss for Training DeepTime Series Forecasting Models
该论文的posterDILATE/poster_DILATE.pdfatmaster·vincent-leguen/DILATE(github.com)0摘要本文解决了非平稳信号的时间序列预测和多个未来步骤预测的问题。为了处理这个具有挑战性的任务,我们引入了DILATE(包括形状和时间的失真损失,DIstortionLossincludingshApeandTimE),这是一种用于训练深度神经网络
UQI-LIUWJ
·
2023-01-16 04:14
论文笔记
深度学习
机器学习
人工智能
KPConv: Flexible and Deformable Convolution for Point Clouds
论文笔记
论文概述1.KernelPointConvolution左边为2D卷积示意图,在对图像的做卷积时,kernel可以理解成一些带权重的规则分布的2D位置(网格/窗口)。推广到点云,因为点云表示是不规则的,所以作者用了一个带权重的点集(kernelpoints)类比2Dkernel,不同的地方是输入点云要和kernelpoints里面的每一个点的权重矩阵相乘然后通过一个相关系数(correlation
weixin_42812109
·
2023-01-15 14:56
论文笔记
计算机视觉
论文笔记
:PointNet
PointNet:DeepLearningonPointSetsfor3DClassificationandSegmentationPointNet1、四个问题要解决什么问题?3D点云是一种很重要的几何数据结构。由于其存在空间关系不规则的特点,因此不能直接将已有的图像分类分割框架套用到点云上。许多研究者会将3D点云转换为3D体素(voxelgrids)或者一系列图片,然后套用到现有的深度学习框架上
hongbin_xu
·
2023-01-15 12:34
论文阅读
深度学习
论文笔记
pointnet
FSS《One-Shot Learning for Semantic Segmentation》
笔记博客:【segmentation】One-ShotLearningforSemanticSegmentation【
论文笔记
小样本分割】One-ShotLearningforSemanticSegmentation
脑瓜嗡嗡0608
·
2023-01-15 11:54
FSS
Paper
Notes
计算机视觉
论文阅读
论文笔记
:InternImage—基于可变形卷积的视觉大模型,超越ViT视觉大模型,COCO 新纪录 64.5 mAP!
目录文章信息写在前面Background&MotivationMethodDCNV2DCNV3模型架构Experiment分类检测文章信息Title:InternImage:ExploringLarge-ScaleVisionFoundationModelswithDeformableConvolutionsPaperLink:https://arxiv.org/abs/2211.05778Cod
苏三平
·
2023-01-15 09:08
Vision
CNN
论文阅读
深度学习
计算机视觉
论文笔记
(图像篡改检测_CVPR2018)(一)——Learning Rich Features for Image Manipulation Detection
论文链接:http://openaccess.thecvf.com/content_cvpr_2018/CameraReady/2813.pdf论文主要提出了一种双流的FasterR-CNN网络,给定manipulatedimage,对其进行端到端的训练,以便检测被篡改的区域。双流分别为RGBstream、noisestream。其中,RGBstream主要目的是从RGB图像输入中提取特征,从而发
不爱吃炒饭的炒饭
·
2023-01-15 07:07
论文笔记
图像处理
图像篡改检测
语义分割
two-stream
Faster
R-CNN
Gated-SCNN: Gated Shape CNNs for Semantic Segmentation
论文笔记
论文介绍作者认为之前的semanticsegmentation的工作将所有信息都放入到了CNN的网络之中(这其中包含了颜色、边界、纹理等信息),这不太理想,所以作者在regularstream的基础之上增加了一个shapestream的分支,通过利用门控卷积来控制使得shapestream这条分支中只包含边界的信息。摘要目前最先进的图像分割方法形成了一种密集的图像表示,其中的颜色、形状和纹理信息都
Sunlight_Q
·
2023-01-14 23:59
论文阅读
深度学习
计算机视觉
神经网络
人工智能
【
论文笔记
】—AlexNet—2012-ACM
论文介绍AlexNet为计算机视觉奠定了基础。AlexNet在ImageNet2012图像分类竞赛中获得了top-5误差15.3%的冠军成绩,首次将深度学习和卷积神经网络用于大规模图像数据集分类,远远优于第二名(top-5错误率为26.2%)和之前的算法,引起巨大轰动。自此之后,计算机视觉开始广泛采用深度卷积神经网络,模型性能日新月异,并迁移泛化到其它计算机视觉任务。AlexNet采用ReLU激活
chaiky
·
2023-01-14 23:54
论文笔记
深度学习
计算机视觉
人工智能
《ADVENT:Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation》
论文笔记
参考代码:ADVENT1.概述导读:由于在训练场景和测试场景存在偏差(domain-shift),因而就会使得训练场景(source域)下的精度在测试场景(target域)下下降的问题。这篇文章针对分割场景下的domainadaptation问题提出在像素预测结果上使用基于熵的损失,既是文章为domainadaptation提出两种损失:entropyloss和GAN的对抗损失,从而降低文章提出的
m_buddy
·
2023-01-14 23:54
图像&视频分割
DA(Domain
Adaptation)
ADVENT
1024程序员节
论文笔记
&&网络复现:Learning to Adapt Structured Output Space for Semantic Segmentation
最近阅读了一篇论文,介绍了一个语义分割中比较小众的研究方向——域自适应(UnsupervisedDomainAdaptation,UDA)。小众并不意味着不重要,相反,语义分割中域自适应是一个很有意义的研究,尤其是在遥感图像处理领域。文章为2018年CVPR中的一篇经典文章,较少了语义分割UDA几大研究领域中的一个方向——基于对抗学习的UDA。论文地址:https://arxiv.org/abs/
ZwaterZ
·
2023-01-14 23:51
网络
计算机视觉
深度学习
论文笔记
DXSLAM: A Robust and Efficient Visual SLAM System with Deep Features
论文链接:https://arxiv.org/pdf/2008.05416.pdf代码链接:https://github.com/ivipsourcecode/dxslam主要内容本文的主要工作为使用CNN(ConvolutionalNeuralNetwork,卷积神经网络)提取特征,然后将所提取的特征整合到现代的SLAM(ORBSLAM2)框架中。其中,作者选择了性能优异的HF-Net,提取每帧
爱嘤嘤的小猪仔
·
2023-01-14 16:12
计算机视觉
深度学习
slam
[
论文笔记
] 大型车牌检测数据集CCPD 阅读笔记
大型车牌检测数据集CCPD阅读笔记TowardsEnd-to-EndLicensePlateDetectionandRecognition:ALargeDatasetandBaseline(ECCV2018)摘要引言CCPD概览RoadsideParkingNet(RPnet)实验结果TowardsEnd-to-EndLicensePlateDetectionandRecognition:ALar
吉他A梦
·
2023-01-14 13:43
论文笔记
人工智能
计算机视觉
深度学习
论文笔记
《DeepTective》
DeepTective:DetectionofPHPVulnerabilitiesUsingHybridGraphNeuralNetworks∗摘要1简介2模型概述2.1预处理2.2GRU2.3GCN2.4Classification3DATTASETS3.1SARD3.2GIT4EXPERIMENTS4.1实验构建4.2ClassificationPerformance4.3ToolCompar
炎凰先生
·
2023-01-14 09:36
论文阅读
《电池管理系统关键技术的概述》
论文笔记
《电池管理系统关键技术的概述》
论文笔记
链接:电池管理系统关键技术概述-IOPscience储能电池的研究为可再生新能源的开发和利用提供了时间和空间支持。为了有效利用能源电池,需要特殊的电池管理系统。
Karry D
·
2023-01-14 09:57
人工智能
调制识别
论文笔记
1----Spatial Transformer Networks保持空间不变性
论文题目:ModulationClassificationusingConvolutionalNeuralNetworksandSpatialTransformerNetworks论文地址1.主要思想应用spatialtransformernetwork确保原始IQ信号不受信道条件的影响。研究了将STN应用到CNN上对不同过采样率下分类正确率的影响。2.背景介绍首先介绍了调制识别从军事向无线通信领
JaJaJaJaaaa
·
2023-01-14 08:20
Modulation
Classification
深度学习
网络
Transformer-XL
论文笔记
论文地址:Transformer-XL::AttentiveLanguageModelsBeyondaFixed-LengthContext摘要Transformer具有学习长期依赖的能力,但是在语言模型的设置中,受限于固定长度的上下文。在本文,我们提出xl,能够学习超过固定长度的依赖,并且不破坏时间上的统一性。它包含一个asegment-levelrecurrencemechanism以及nov
牧童在路上
·
2023-01-14 07:25
nlp
【
论文笔记
:Progressive Feature Alignment for Unsupervised Domain Adaptation 2019 CVPR】
ProgressiveFeatureAlignmentforUnsupervisedDomainAdaptation概览动机PFAN结构图理论分析插图实验结果1.Introduction2.RelatedWork3.ProgressiveFeatureAlignmentNetwork3.1.TaskFormulation3.2.Easy-to-HardTransferStrategy3.3.Ada
十月十二日
·
2023-01-13 16:39
领域自适应
迁移学习
深度学习
计算机视觉
【Asymmetric Tri-training for Unsupervised Domain Adaptation 2017 ICML】
论文笔记
:AsymmetricTri-trainingforUnsupervisedDomainAdaptation速览背景及方法模型概览结果观察总结IntroductionRelatedWorkMethodLossforMultiviewFeaturesNetworkLearningProcedureandLabelingMethodBatchNormalizationforDomainAdap
十月十二日
·
2023-01-13 16:09
领域自适应
迁移学习
深度学习
计算机视觉
【
论文笔记
:Unsupervised Domain Adaptation via Structured Prediction Based Selective Pseudo-Labeling】
UnsupervisedDomainAdaptationviaStructuredPredictionBasedSelectivePseudo-Labeling基于结构化预测的选择性伪标记的无监督域自适应IntroductionRelatedWorkProposedMethodExperimentsandResults基于结构化预测的选择性伪标记的无监督域自适应论文链接Introduction结构
十月十二日
·
2023-01-13 16:08
领域自适应
迁移学习
深度学习
人工智能
【
论文笔记
】A three-way model for collective learning on multi-relational data
摘要提出了一种基于三维张量因式分解的关系学习新方法。与其他张量方法不同,我们的方法能够通过模型的潜在成分进行集体学习,并提供了一种计算因子分解的有效算法。背景从建模的角度来看,张量提供了简单性,因为任意阶的多个关系可以直接表示为高阶张量。此外,关于问题结构的先验知识不需要已知,也不需要从数据中推断,因为这是必要的,例如对于贝叶斯网络或马尔可夫逻辑网络(MLN)等图形模型。从学习角度使用张量分解的一
CodingJazz
·
2023-01-13 16:05
人工智能
机器学习
知识图谱
从复杂到简洁:基于EEG的跨主题情绪识别的渐进转移策略
小白的
论文笔记
:FromIntricacytoConciseness:AProgressiveTransferStrategyforEEG-BasedCross-SubjectEmotionRecognition
qq_43025979
·
2023-01-13 16:32
迁移学习
人工智能
机器学习
Multi-Object Tracking with Multiple Cues and Switcher-Aware Classification
论文笔记
Multi-ObjectTrackingwithMultipleCuesandSwitcher-AwareClassification似乎是商汤投CVPR2019的论文。文中提出了一个统一的多目标跟踪(MOT)框架,学习充分利用长期和短期线索来处理MOT场景中的复杂情况。在现实系统中,可以认为每个组件都是不可靠的,所以作者联合多个模块交叠使用。现行方案中,检测器用于发现,ReID进行识别。ReID
图波列夫
·
2023-01-13 15:04
DeepLearning
MOT
VisualTracking
MOT
多目标跟踪
深度学习
【
论文笔记
】IEEE | 一种新卷积 DSConv: Efficient Convolution Operator
论文标题:DSConv:EfficientConvolutionOperator论文链接:https://arxiv.org/abs/1901.01928v2论文代码:发表时间:2019年11月创新点实现更低的内存使用,并且加快计算速度Abstract我们引入了一种称为DSConv(分布移位卷积)的卷积层变体,它可以很容易地替换到标准神经网络架构中,并实现更低的内存使用和更高的计算速度。DSCon
来自γ星的赛亚人
·
2023-01-12 22:49
学习笔记
论文笔记
深度学习
人工智能
计算机视觉
【
论文笔记
】TransFG: A Transformer Architecture for Fine-Grained Recognition
TransFG简介与基于CNN的模型在细粒度任务上的对比disadvantagesofCNNadvantageofTransformer整体结构改进点1、overlappingpatchesPartSelectionModuleContrastivefeaturelearning总结简介2021年3月由字节跳动在CVPR发表的一篇细粒度分类文章。在CUB-200-2011上最高识别精度为91.7%
事多做话少说
·
2023-01-12 21:36
论文笔记
transformer
深度学习
人工智能
SimCSE
论文笔记
单位:普林斯顿大学计算机科学系、清华大学跨学科信息科学研究所时间:2021.09发表:EMNLP论文链接:https://arxiv.org/pdf/2104.08821.pdf一、前言1.SimCSE想做些什么?学习通用句向量是自然语言处理中一个基本的问题,在sentence-bert中已经证明过原始bert生成的句向量在语义相似度任务中表示非常差,但在经过孪生网络的训练后就能生成很好的句向量表
shuaiZuJiaoFu
·
2023-01-12 19:41
论文阅读
深度学习
ContrastNet
论文笔记
单位:北京航空航天大学,渥太华大学,利德大学时间:2022.06发表:AAAI论文链接:https://ojs.aaai.org/index.php/AAAI/article/view/21292一、前言1.ContrastNet想做些什么?主要想解决的问题是小样本(few-shot)文本分类中的判别表示和过拟合问题。2.ContrastNet做到了什么?提出了一个用于小样本文本分类的对比学习框架
shuaiZuJiaoFu
·
2023-01-12 19:41
论文阅读
人工智能
DistilBERT
论文笔记
单位:HuggingFace时间:2020.5发表:NIPS2019论文链接:https://arxiv.org/pdf/1910.01108.pdf一、背景1.什么是distill(蒸馏)?蒸馏简单的说是将大模型(teacher)的学习结果,作为小模型(student)的学习目标,意在小模型能学习到大模型的表示。蒸馏这个方法的核心思想是:好模型的目标不是拟合训练数据而是学习如何泛化到新的数据。所
shuaiZuJiaoFu
·
2023-01-12 19:10
深度学习
人工智能
自然语言处理
ALBERT
论文笔记
单位:GoogleResearch时间:2020.2发表:ICLR2020论文链接:https://arxiv.org/abs/1909.11942一、前言1.ALBERT想做些什么?深度学习在模型结构想不到更好的后,就会想到增加模型的规模即深度和宽度,google团队在提出bert模型后也如是思考,想通过增加bert的宽度来提高效果。但bert模型再预训练时已经很大了,强如google拥有这么好
shuaiZuJiaoFu
·
2023-01-12 19:10
论文阅读
深度学习
自然语言处理
DKT
论文笔记
单位:北京邮电大学,美团时间:2022.06发表:ACL论文链接:https://aclanthology.org/2022.acl-short.6/一、前言1.DKT想做些什么?在文本分类中,域外(Out-of-Domain)意图识别旨在将新的未知意图归入不同的聚类,发现域外意图对意图识别机器人能实现完全自动化至关重要,这有助于改善对话系统的未来发展。其中一个重大的挑战是如何将先前的域内(IND
shuaiZuJiaoFu
·
2023-01-12 19:02
论文阅读
GIoU损失
论文笔记
文章目录GeneralizedIntersectionoverUnion:AMetricandALossforBoundingBoxRegression代码Giou能够优化那些完全没有相交的框(IOU损失做不到)l2损失的缺点如上图a所示三者的l2损失相同,但是iou相差巨大,因为如果利用的是l2损失,bbox的信息其实就是用左上角和右下角坐标信息来代表的。因此,如果第二个角位于以绿色矩形的第二个
yuyijie_1995
·
2023-01-12 18:30
论文笔记
论文笔记
GIou损失
知识点链接
2105.14485.pdf视频:【AIDrive】ACL2021:基于对抗学习的事件抽取预训练模型_哔哩哔哩_bilibili笔记:论文阅读笔记25【CLEVE:基于对比学习的事件抽取预训练】-知乎
论文笔记
Rose sait
·
2023-01-12 16:30
python
消除anchor-base与anchor-free检测算法之间的精度差距——ATSS
论文笔记
消除anchor-base与anchor-free检测算法之间的精度差距——ATSS
论文笔记
作者:ShifengZhang,ChengChi,YongqiangYao,ZhenLei,StanZ.Li论文地址
_white_door
·
2023-01-12 16:57
计算机视觉
深度学习
计算机视觉
神经网络
pytorch
【
论文笔记
】:PSS(NMS-free)
&TitleObjectDetectionMadeSimplerbyEliminatingHeuristicNMS代码&SummaryMotivation:如果网络只能为图像中的每个实例对象识别一个正样本,那么就没有必要使用NMS。allthelocationsontheCNNfeaturemapswithinthecenterregionofanobjectareassignedpositive
Activewaste
·
2023-01-12 16:52
#
Anchor-free
#
分类与回归
目标检测
《YOLOF:You Only Look One-level Feature》
论文笔记
参考代码:YOLOF1.概述导读:回顾之前检测网络中普遍使用的FPN网络进行不同尺度特征的融合,以及在不同scale下进行目标检测(不同size的目标会被分配到不同stride的FPN特征图上),这其实是一种分而治之的策略。但是这样的网络设计方式会带来较多的计算开销,毕竟需要计算那么多层级的FPN金字塔。而这篇文章的思路便是思考可否将FPN网络进行简化,这样检测网络的耗时就能得到极大减少。对此文章
m_buddy
·
2023-01-12 16:20
#
General
Object
Detection
目标检测
计算机视觉
深度学习
论文笔记
(二)《Adversarial Manipulation of Deep Representations》
1.看过摘要之后,自己提出几个问题;具体如何针对DNN内部层,生成新的对抗网络?2.对应问题的解答;3.用自己的话阐述文章的核心问题和思路;4.可能改进的地方;5.自己画一遍文章的流程图;6.捋一遍算法流程.没看懂abstract我们证明,深度神经网络(DNN)中的图像表示可以被操纵,以模仿其他自然图像,只对原始图像进行微小的、难以察觉的扰动。以前的对抗图像生成方法主要针对产生错误类别标签的图像扰
学而时习之!!
·
2023-01-12 13:26
对抗攻击
python
深度学习
pytorch
[2017NIPS]Learning Efficient Object Detection Models with Knowledge Distillation
论文笔记
目录Method1.结果蒸馏——分类2.结果蒸馏——回归3.特征蒸馏实验结果总结Method将知识蒸馏用在检测方向最大的问题就是前景和背景的类别不均衡问题。感觉就是很常规的思路,蒸特征+蒸输出,具体是在Faster-RCNN上做。其中蒸特征是使用的FitNet的方法在backbone做,在RPN和分类回归网络(RCN)部分蒸输出,两个部分都同时做分类和回归蒸馏。分类是做了一个weighted交叉熵
机器就不学习
·
2023-01-12 13:34
知识蒸馏
目标检测
深度学习
目标检测
[2021ICLR]Improve Object Detection with Feature-based Knowledge Distillation
论文笔记
动机认为目标检测知识蒸馏效果不好的问题出在两个地方。1.前背景像素比例不平衡问题。提出了基于注意力引导的提取方法,利用==注意机制(而非gt)找到前景物体的关键像素点==,使学生更加努力地学习前景物体的特征。具体做法是在backbone处,利用attention生成一个fine-grainedmask而非二值mask,并且生成的mask包含空间maskMs∈RH,W和通道maskMc∈Rc两个部分
机器就不学习
·
2023-01-12 13:34
目标检测
知识蒸馏
目标检测
深度学习
计算机视觉
【
论文笔记
_知识蒸馏_2022】Compressing Deep Graph Neural Networks via Adversarial Knowledge Distillation
通过对立知识蒸馏压缩深度图神经网络摘要深度图神经网络(GNNs)已被证明对图结构数据的建模具有表达能力。然而,深度图模型的过度堆积的体系结构使得在移动或嵌入式系统上部署和快速测试变得困难。为了压缩过度堆积的广义神经网络,通过师生架构进行知识提炼是一种有效的技术,其中关键步骤是用预定义的距离函数来度量教师和学生网络之间的差异。然而,对各种结构的图使用相同的距离可能是不合适的,并且最佳距离公式很难确定
乱搭巴士
·
2023-01-12 13:33
个人学习_研究生
GNN
神经网络
人工智能
深度学习
【
论文笔记
_知识蒸馏_2022】Spot-adaptive Knowledge Distillation
点自适应知识蒸馏摘要知识提取(KD)已经成为压缩深度神经网络的一个良好建立的范例。进行知识提炼的典型方式是在教师网络的监督下训练学生网络,以利用教师网络中一个或多个点(即,层)的知识。蒸馏点一旦指定,在整个蒸馏过程中,所有训练样本的蒸馏点都不会改变。在这项工作中,我们认为蒸馏点应该适应训练样本和蒸馏时期。因此,我们提出了一种新的提取策略,称为点自适应KD(SAKD),在整个提取周期的每次训练迭代中
乱搭巴士
·
2023-01-12 13:03
个人学习_研究生
知识蒸馏
人工智能
深度学习
机器学习
【
论文笔记
_知识蒸馏_2022】Knowledge Distillation from A Stronger Teacher
来自一个更强的教师的知识蒸馏摘要不同于现有的知识提取方法侧重于基线设置,其中教师模型和培训策略不如最先进的方法强大和有竞争力,本文提出了一种称为DIST的方法,以从更强的教师中提取更好的知识。我们从经验上发现,学生和更强的老师之间的预测差异可能会相当严重。因此,KL散度预测的精确匹配将干扰训练,并使现有方法表现不佳。在本文中,我们证明了简单地保持教师和学生的预测之间的关系就足够了,并提出了一种基于
乱搭巴士
·
2023-01-12 13:02
个人学习_研究生
知识蒸馏
机器学习
人工智能
深度学习
【
论文笔记
_知识蒸馏_2022】Class-Incremental Learning by Knowledge Distillation with Adaptive Feature Consolida
摘要我们提出了一种基于深度神经网络的新型类增量学习方法,该方法在有限的内存中不断学习新的任务,用于存储以前任务中的例子。我们的算法以知识提炼为基础,提供了一种原则性的方法来保持旧模型的表征,同时有效地调整到新任务。所提出的方法估计了模型更新所产生的表征变化和损失增加之间的关系。它利用表征最小化了损失增加的上界,这利用了骨干模型内每个特征图的估计重要性。基于重要性,该模型限制重要特征的更新以获得稳健
乱搭巴士
·
2023-01-12 13:02
个人学习_研究生
知识蒸馏
计算机视觉
深度学习
【
论文笔记
_知识蒸馏】Adaptive multi-teacher multi-level knowledge distillation
2020年的论文。摘要知识提炼(KD)是一种有效的学习范式,通过利用从教师网络中提炼的额外监督知识来提高轻量级学生网络的性能。大多数开创性研究要么在学习方法上只向一名教师学习,忽视了一名学生可以同时向多名教师学习的潜力,要么简单地将每位教师视为同等重要,无法揭示教师对具体例子的不同重要性。为了弥补这一差距,我们提出了一种新的自适应多教师多级知识提炼学习框架(AMTML-KD),这包括两个新的见解:
乱搭巴士
·
2023-01-12 13:32
个人学习_研究生
知识蒸馏
深度学习
计算机视觉
人工智能
【
论文笔记
_知识蒸馏】Interactive Knowledge Distillation for image classification
摘要知识提炼(KD)是一个标准的师生学习框架,在训练有素的大型教师网络的指导下,培养一个轻量级的学生网络。互动教学作为一种有效的教学策略,在学校得到了广泛的应用,以激发学生的学习动机。在互动教学中,教师不仅提供知识,而且对学生的反应给予建设性的反馈,以提高学生的学习成绩。在这项工作中,我们提出了交互式知识提炼(IAKD)来利用交互式教学策略进行有效的知识提炼。在提取过程中,教师网络和学生网络之间的
乱搭巴士
·
2023-01-12 13:32
个人学习_研究生
知识蒸馏
深度学习
计算机视觉
神经网络
【
论文笔记
_自知识蒸馏_2021】Revisiting Knowledge Distillation via Label Smoothing Regularization
代码地址:https://github.com/yuanli2333/Teacher-free-Knowledge-Distillation摘要知识提炼(KD)旨在将繁琐的教师模型中的知识提炼为轻量级的学生模型。它的成功通常归功于教师模型提供的关于类别之间相似性的特权信息,从这个意义上说,只有强大的教师模型被部署在实践中教较弱的学生。在这项工作中,我们通过以下实验观察来挑战这一共同信念:1)除了承
乱搭巴士
·
2023-01-12 13:32
个人学习_研究生
知识蒸馏
计算机视觉
深度学习
神经网络
【
论文笔记
_知识蒸馏_2021】KNOWLEDGE DISTILLATION VIA SOFTMAX REGRESSION
代码地址:https://github.com/jingyang2017/KD_SRRL摘要本文通过知识提炼解决了模型压缩的问题。我们主张采用一种优化学生网络倒数第二层的输出特征的方法,因此与表征学习直接相关。为此,我们首先提出了一种直接的特征匹配方法,它只关注优化学生的倒数第二层。其次,更重要的是,由于特征匹配没有考虑到手头的分类问题,我们提出了第二种方法,将表征学习和分类解耦,利用教师的预训练
乱搭巴士
·
2023-01-12 13:32
知识蒸馏
个人学习_研究生
深度学习
计算机视觉
深度学习
Feature-map-level Online Adversarial Knowledge Distillation
论文笔记
Feature-map-levelOnlineAdversarialKnowledgeDistillation
论文笔记
论文地址:https://arxiv.org/abs/2002.01775v1github
hankeryeah
·
2023-01-12 13:01
论文阅读
深度学习
机器学习
人工智能
2020知识蒸馏 《Channel Distillation: Channel-Wise Attention for Knowledge Distillation》
论文笔记
论文笔记
《ChannelDistillation:Channel-WiseAttentionforKnowledgeDistillation》摘要问题1.ChannelDistillation(CD)渠道蒸馏
星竹紫兰
·
2023-01-12 13:31
知识蒸馏
论文笔记
迁移学习
深度学习
机器学习
网络
人工智能
神经网络
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他