E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
contrastive
目标检测:Proposal-
Contrastive
Pretraining for Object Detection from Fewer Data
论文作者:QuentinBouniot,RomaricAudigier,AngéliqueLoesch,AmauryHabrard作者单位:UniversitéParis-Saclay;UniversitéJeanMonnetSaint-Etienne;UniversitairedeFrance(IUF)论文链接:http://arxiv.org/abs/2310.16835v1内容简介:1)方向
学术菜鸟小晨
·
2023-11-01 18:34
目标检测
目标跟踪
人工智能
论文阅读 - Detecting Social Bot on the Fly using
Contrastive
Learning
目录摘要:引言3问题定义4CBD4.1框架概述4.2ModelLearning4.2.1通过GCL进行模型预训练4.2.2通过一致性损失进行模型微调4.3在线检测5实验5.1实验设置5.2性能比较5.5少量检测研究6结论https://dl.acm.org/doi/pdf/10.1145/3583780.3615468摘要:社交机器人检测正在成为社会安全领域广泛关注的任务。一直以来,社交机器人检测
无脑敲代码,bug漫天飞
·
2023-11-01 12:26
社交机器人检测
论文阅读
【损失函数】
Contrastive
Loss, Triplet Loss and Center Loss
文章目录1.损失函数ContrastiveLoss[1]:TripletLoss[2]:CenterLoss[3]:2.问题引入:3.ContrastiveLoss:对比损失3.1本质3.2定义3.3含义4.TripletLoss:三元组损失4.1本质4.2定义4.3目标4.4公式4.5进阶:FaceNet5.CenterLoss:5.1定义5.2公式1.损失函数ContrastiveLoss[1
^_^ 晅菲
·
2023-10-22 22:08
知识普及
机器学习
tcp/ip
深度学习
机器学习
文本生成解码策略
例如,解码最小长度(当长度小于该值的时候,eos的采样概率为0),top-k设置(小于top-k阈值的采样概率为0),温度参数(对采样概率进一步处理)2.
contrastive
_search实现了怎样的功能为了增加解码的多样性
旺旺棒棒冰
·
2023-10-14 15:00
人工智能
Domain Enhanced Arbitrary Image Style Transfer via
Contrastive
Learning
ABSTRACT在这项工作中,我们使用一种新颖的风格特征表示学习方法来解决任意图像风格转移的挑战性问题。合适的风格表示作为图像风格化任务的关键组成部分,对于获得满意的结果至关重要。现有的基于深度神经网络的方法在内容特征的Gram矩阵等二阶统计量的指导下取得了合理的结果。然而,它们没有利用足够的风格信息,这会导致诸如局部失真和风格不一致之类的伪影。为解决这个问题,我们通过分析多种风格之间的异同,并考
啊菜来了
·
2023-10-09 00:18
GAN
计算机视觉
深度学习
人工智能
神经网络
Inductive Relation Prediction with Logical Reasoning Using
Contrastive
Representations
摘要知识图(KGs)中的关系预测旨在预测不完全三元组中的缺失关系,而主流嵌入范式在测试过程中对未见实体的处理存在限制。在现实场景中,归纳设置更常见,因为训练过程中的实体是有限的。以往的方法通过隐式逻辑在组合逻辑规则中捕获归纳能力,但难以准确地获取组合逻辑规则的独立于实体的关系语义,也难以解决关系语义稀缺性导致的逻辑监督不足的问题。为此,我们提出了一种新颖的基于图卷积网络(GCN)的LogCo模型,
小蜗子
·
2023-10-02 13:01
知识图谱的结构动态补全
深度学习
机器学习
人工智能
论文笔记:
Contrastive
Trajectory Similarity Learning withDual-Feature Attention
ICDE20231intro1.1背景轨迹相似性,可以分为两类启发式度量根据手工制定的规则,找到两条轨迹之间基于点的匹配学习式度量通过计算轨迹嵌入之间的距离来预测相似性值上述两种度量的挑战:无效性:具有不同采样率或含有噪声的轨迹会降低现有度量的有效性使用手工制定规则的启发式度量容易受到低质量轨迹的错误影响学习式度量主要采用并非最初为轨迹数据设计的深度学习模型,可能无法捕捉轨迹点之间以及相似轨迹之间
UQI-LIUWJ
·
2023-10-01 20:45
论文笔记
论文阅读
【自监督学习】对比学习(
Contrastive
Learning)介绍
1.前言1.1.为什么要进行自监督学习我们知道,标注数据总是有限的,就算ImageNet已经很大,但是很难更大,那么它的天花板就摆在那,就是有限的数据总量。NLP领域目前的经验应该是:自监督预训练使用的数据量越大,模型越复杂,那么模型能够吸收的知识越多,对下游任务效果来说越好。这可能是自从Bert出现以来,一再被反复证明的真理,如果它不是唯一的真理,那也肯定是最大的真理。图像领域如果技术想要有质的
姚路遥遥
·
2023-09-29 02:07
自监督学习
对比学习
深度学习
计算机视觉
无监督学习
【CVPR 2021】基于样本间关系的知识蒸馏:Complementary Relation
Contrastive
Distillation
【CVPR2021】基于样本间关系的知识蒸馏:ComplementaryRelationContrastiveDistillation论文地址:主要问题:主要思路:算法优点:算法论证:基本符号:优化目标:优化目标的下限:分布近似:关系对比损失:互补关系:关系度量:具体实现:评判函数:采样策略:损失函数:论文地址:https://arxiv.org/abs/2103.16367主要问题:
BIT可达鸭
·
2023-09-28 19:03
人工智能
深度学习
模型压缩
知识蒸馏
计算机视觉
Improved Baselines with Momentum
Contrastive
Learning 论文学习
1.解决了什么问题?最近的非监督表征学习关注在对比学习上。在检测和分割任务上,MoCo的非监督预训练表现优于在ImageNet监督预训练的表现;在线性分类表现上,SimCLR进一步缩小了非监督和监督预训练的差距。2.提出了什么方法?使用一个MLP映射head和数据增强方法,改进了MoCo。这两个方法与现有的MoCo和SimCLR框架是正交的,能提升MoCo在图像分类和目标检测上迁移学习的效果。此外
calvinpaean
·
2023-09-27 04:21
度量学习
学习
人工智能
论文阅读:Heterogeneous Graph
Contrastive
Learning for Recommendation(WSDM ’23)
论文链接Motivation:在推荐系统中,图神经网络在建模图结构数据上已经变成一个强有力的工具。但是现实生活的推荐语义通常涉及异质关系(像用户的社交关系,物品知识关系的依赖),这些都包含丰富的语义信息去提升表征能力的学习。同时,对比自监督学习在推荐系统中也取得了巨大进步。鉴于此,本文提出异质图对比学习[HeterogeneousGraphContrastiveLearning(HGCL)],它利
aaHua_
·
2023-09-25 22:04
论文阅读
论文阅读
人工智能
深度学习
图异常检测-Graph Anomaly Detection via Multi-Scale
Contrastive
Learning Networks with Augmented View
目录摘要Introduction图异常检测早期的工作GraphConstrastiveLearningGraphAugmentationProblemDefnitionMethodGraphAugmentationGraphContrastiveNetworkExperimentsExperimentSettingsModelParametersResultandAnalysisAblationS
无脑敲代码,bug漫天飞
·
2023-09-19 10:21
图异常节点检测
论文阅读
CLIP(
Contrastive
Language-Image Pretraining)
概念是一个由OpenAI开发的深度学习模型,它融合了文本和图像的信息,以便同时理解和生成文本和图像。CLIP可以执行各种任务,包括图像分类、文本描述生成、图像生成以文本描述等。多模态CLIP的核心思想是使用对比学习来训练一个模型,使其能够理解文本和图像之间的关系。它使用了大量的文本和图像数据对模型进行预训练,然后可以通过微调来适应特定的任务。CLIP的多模态能力使其非常强大,可以用于各种应用,例如
丰。。
·
2023-09-11 20:57
多模态
数据分析
人机交互
多模态
【增量学习】Incremental Intent Detection for Medical Domainwith
Contrastive
Replay Networks
这篇2022年5月份的ACL文章出自于中科院Abstract传统的医疗意图检测方法需要固定的预定义意图类别。然而,由于现实世界中新的医学意图不断涌现,这样的要求并不现实。考虑到每次新数据和意图进入时存储和重新训练整个数据的计算成本很高,我们建议增量学习出现的意图,同时避免灾难性地忘记旧意图。我们首先为医疗意图检测制定增量学习。然后,我们采用基于记忆的方法来处理增量学习。我们进一步建议使用对比重放网
nlp_xiaobai
·
2023-09-11 08:13
学习
自然语言处理
tensorflow
深度学习
机器学习
CVPR2023 Pseudo-Label Guided
Contrastive
Learning for Semi-Supervised Medical Image Segmentation
用于半监督医学图像分割的伪标签引导对比学习Paper:https://openaccess.thecvf.com/content/CVPR2023/html/Basak_Pseudo-Label_Guided_
Contrastive
_Lear
学习不易
·
2023-09-04 02:51
CVPR2023
半监督学习
半监督医学图像分割
人工智能
计算机视觉
图像处理
深度学习
神经网络
【论文合集】2022年10月医学影像期刊论文合集
topif13.828)共30篇.”标题高频词汇('segmentation',13),('brain',9),('mri',6),('graph',4)('attention',4),('3d',4),('
contrastive
sukeee
·
2023-09-03 17:37
医学影像期刊合集
计算机视觉
人工智能
医学影像
An Effective Deployment of
Contrastive
Learning in Multi-label Text Classification (ACL2023)
AnEffectiveDeploymentofContrastiveLearninginMulti-labelTextClassification(ACL2023)在多标签文本分类中一种有效的对比学习应用论文代码:占时未公布论文地址:https://aclanthology.org/2023.findings-acl.556.pdf个人阅读笔记,水平有限,如有问题欢迎指正交流1.介绍对比学习技术在
CodeWang_NC
·
2023-08-27 21:55
文献阅读
人工智能
深度学习
论文阅读
论文笔记:When Do
Contrastive
Learning Signals Help Spatio-TemporalGraph Forecasting?
2022SigSpatial1intro1.1背景论文认为数据稀缺是阻碍时空图(STG)预测的一个关键问题在这一领域的公共数据集通常只包含几个月的数据,限制了可以构建的训练实例数量——>学习模型可能会对训练数据过拟合,导致泛化性能较差自监督学习在graph任务中展现出巨大的潜力从数据本身中获取监督信号,通常利用数据的潜在结构大多数表现最佳的自监督方法都基于对比学习基本思想在具有类似语义(posit
UQI-LIUWJ
·
2023-08-25 05:57
论文笔记
论文阅读
论文《
Contrastive
Meta Learning with Behavior Multiplicity for Recommendation》阅读
论文《ContrastiveMetaLearningwithBehaviorMultiplicityforRecommendation》阅读论文概况论文主要贡献Background&Motivation方法论单行为图神经网络(Behavior-awareGNN)多行为对比学习元对比编码模型训练实验部分论文总结论文概况今天带来的是发表在WSDM2022上关于多行为推荐的对比元学习论文《Contras
行者^_^煜煜
·
2023-08-20 14:21
论文阅读
深度学习
人工智能
推荐系统
神经网络
推荐算法
论文笔记--ERNIE-VIL 2.0: MULTI-VIEW
CONTRASTIVE
LEARNING FOR IMAGE-TEXT PRE-TRAINING
论文笔记--ERNIE-VIL2.0:MULTI-VIEWCONTRASTIVELEARNINGFORIMAGE-TEXTPRE-TRAINING1.文章简介2.文章概括3文章重点技术3.1Multi-viewlearning3.2对比损失函数4.文章亮点5.原文传送门6.References1.文章简介标题:ERNIE-VIL2.0:MULTI-VIEWCONTRASTIVELEARNINGFO
Isawany
·
2023-08-13 02:20
论文阅读
论文阅读
ernie
ERNIE-ViL
多视角学习
目标检测
A Simple Framework for
Contrastive
Learning of Visual Representations(论文翻译)
ASimpleFrameworkforContrastiveLearningofVisualRepresentations摘要1介绍2方法2.1对比学习框架2.2训练大批量数据2.3评估协议3.用于对比表示学习的数据增强3.1.数据增强操作的组合对于学习良好的表示至关重要3.2对比学习需要更强的数据增强比有监督学习4.编码器和头部的架构4.1.无监督对比学习从更大的模型中获益(更多)4.2.非线性
黄阳老师
·
2023-08-09 16:45
深度学习
计算机视觉
人工智能
论文笔记:SUPERVISED
CONTRASTIVE
REGRESSION
2022arxiv的论文,没有中,但一作是P大图班本MIT博,可信度应该还是可以的0摘要深度回归模型通常以端到端的方式进行学习,不明确尝试学习具有回归意识的表示。它们的表示往往是分散的,未能捕捉回归任务的连续性质。在本文中,我们提出了“监督对比回归”(SupervisedContrastiveRegression,SupCR)的框架该框架通过将样本与目标距离进行对比来学习具有回归意识的表示。Sup
UQI-LIUWJ
·
2023-08-06 19:06
论文笔记
论文阅读
论文阅读-Neighbor
Contrastive
Learning on Learnable Graph Augmentation(AAAI2023)
人为设计的图增强,可能会破坏原始图的拓扑结构,同时相邻节点被视为负节点,因此被推离锚点很远。然而,这与网络的同质性假设是矛盾的,即连接的节点通常属于同一类,并且应该彼此接近。本文提出了一种端到端的自动GCL方法,称为NCLA,将邻居对比学习应用于可学习图增强。方案通过多头图注意力机制自动学习具有自适应拓扑结构的多个图增强视图,可以在不需要先验领域知识的情况下兼容各种图数据集。此外,设计了一种允许每
无脑敲代码,bug漫天飞
·
2023-08-05 06:57
对比学习
论文阅读
无监督表示学习(三):2020 Simple
Contrastive
Learning of Visual Representations(SimCLR)
2020年2月Hinton团队的一项新研究:SimCLR,提出了对比学习为无监督表示学习领域带来的巨大突破,并推出了性能优越的表示模型SimCLR。论文地址题目:《ASimpleFrameworkforContrastiveLearningofVisualRepresentations》地址:问题提出首先论文对当前表示学习的主流方法做了概述,目前大部分表示方法都可以分为两种:生成式和判别式。生成式
快乐的二叉树
·
2023-07-31 02:09
模型特征蒸馏:
Contrastive
Learning Rivals Masked Image Modeling in Fine-tuning via Feature Distillation
https://github.com/SwinTransformer/Feature-Distillation.在FeatureWhitening中使用不带参数的LayerNorm:nn.LayerNorm(embed_dim,elementwise_affine=False)在Projector中使用1x1卷积进行特征对齐:VIT中使用self.decoder=nn.Sequential(nn.
xinfeng2005
·
2023-07-30 23:46
深度学习
人工智能
PICO:
CONTRASTIVE
LABEL DISAMBIGUATION FOR PARTIAL LABEL LEARNING
部分标签学习(PLL)是一个重要的问题,它允许每个训练示例使用一个粗略的候选集进行标记,这非常适合许多具有标签模糊性的真实数据标注场景。尽管有这样的承诺,PLL的性能往往落后于监督的同类产品。在这项工作中,我们通过在一个连贯的框架中解决PLL表征学习和标签消歧中的两个关键研究挑战来弥合这一差距。具体来说,我们提出的框架PiCO包括一个对比学习模块和一个新的基于类原型的标签消歧算法。PiCO为来自同
Tsukinousag1
·
2023-07-30 23:15
深度学习
机器学习
人工智能
《论文阅读》Cluster-Level
Contrastive
Learning for Emotion Recognition in Conversations
《论文阅读》Cluster-LevelContrastiveLearningforEmotionRecognitioninConversations前言简介思路出发点模型实验结果结论代码复现前言你是否也对于理解论文存在困惑?你是否也像我之前搜索论文解读,得到只是中文翻译的解读后感到失望?小白如何从零读懂论文?和我一起来探索吧!今天为大家带来的是《Cluster-LevelContrastiveLe
365JHWZGo
·
2023-07-30 23:45
情感对话
论文阅读
深度学习
机器学习
ERC
对话中的情感识别
The World is Binary:
Contrastive
Learning for Denoising NextBasket Recommendation
论文地址https://dl.acm.org/doi/10.1145/3404835.3462836摘要:下一个购物篮推荐旨在通过考虑用户之前购买的购物篮序列,推断出用户下次访问时将购买的一组物品。这项任务已引起学术界和工业界越来越多的关注。现有的解决方案主要侧重于对它们的历史交互进行顺序建模。然而,由于用户行为的多样性和随机性,并非所有这些篮子都有助于确定用户的下一步行动。为了提高推荐性能,有必
绵蛮阿
·
2023-07-30 23:14
推荐算法
ContraGAN:
Contrastive
Learning for Conditional Image Generation-阅读札记
ContraGAN:ContrastiveLearningforConditionalImageGeneration阅读笔记文章信息:Kang,Minguk,andJaesikPark."Contragan:Contrastivelearningforconditionalimagegeneration."arXivpreprintarXiv:2006.12681(2020).(NeurIPS20
^码农翻身^
·
2023-07-30 23:14
pytorch
深度学习
机器学习
文献阅读:Unified
Contrastive
Learning in Image-Text-Label Space
文献阅读:UnifiedContrastiveLearninginImage-Text-LabelSpaceAbstract视觉识别目前使用两种类型的方法:基于图像-标签的监督学习,基于图像-文本的对比学习。由于数据源和学习目标不同,两种学习各有优势,图像-标签的预训练方式能生成更具有判别力的表征,图像-文本的方式具有零样本识别能力。但是,前者依赖人工标注数据,后者的判别能力相比于干净label训
Jay——小白
·
2023-07-30 23:14
文献阅读
计算机视觉
人工智能
python
【论文阅读】GraphCL:
Contrastive
Self-Supervised Learning of Graph Representations
图表示的对比自监督学习摘要1引言2方法2.1背景情况2.2GraphCL2.3GraphCL概述3实验摘要本文提出了图对比学习(GraphCL),一个以自监督方式学习节点表示的一般框架。GraphCL通过最大化同一节点局部子图的内在特征和链接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入。我们使用GNN生成同一节点的两种表示,并利用对比学习损失来最大化它们之间的一致性。在transduct
Cziun
·
2023-07-30 23:44
自监督学习
图神经网络
对比学习
深度学习
机器学习
论文笔记:COST:
CONTRASTIVE
LEARNING OF DISENTANGLEDSEASONAL-TREND REPRESENTATIONS FORTIME SERIES FOREC
ICLR20221前言介绍表征学习(对比学习)+时间序列预测首先学习时间序列解耦的representation然后进行回归任务的精调对比学习CoST包含时域和频域的contrastiveloss——>学习趋势和周期性representation传统的时间序列预测模型将特征表示学习和预测任务放在一块迭代很多非线性层来同时进行特征提取和预测回归任务但这样的方式可能会导致模型过拟合,提取到数据中多余的噪
UQI-LIUWJ
·
2023-07-30 23:44
论文笔记
机器学习
深度学习
python
论文阅读 CLINE:
Contrastive
Learning with Semantic Negative Examples for Natural Language Understanding
paper:https://arxiv.org/pdf/2107.00440.pdfcode:https://github.com/kandorm/CLINE文章来自清华大学和腾讯AI实验室ACL2021,中文题目为自然语言理解的语义负样本对比学习。首先还是最近比较热的对比学习,重点关注在语义负样本的构建上。预训练模型虽然有很强的语义表征的能力,但是还是容易受到简单扰动的影响。最近的工作提高预训练
choose_c
·
2023-07-30 23:44
深度学习
自然语言处理
深度学习
CLEAR:
Contrastive
Learning for Sentence Representation
Abstract大多数已有的预训练语言模型集中于word-level的训练目标,而sentence-level的目标则很少被研究。我们提出ContrastiveLEArningforsentenceRepresentation(CLEAR),使用了多种句子级别的增强策略,包括对word和span的:deletionreorderingsubstitution在SentEval和GLUEbenchm
chansonzhang
·
2023-07-30 23:43
NLP
Papers
NLP
AI
机器学习
人工智能
深度学习
论文解读:
Contrastive
Learning Reduces Hallucination in Conversations
论文解读:ContrastiveLearningReducesHallucinationinConversationsGithub:https://github.com/sunnweiwei/MixCL一、动机大量的知识(例如常识、事实等)对于开放领域的对话系统至关重要,为了注入知识,通常会涉及到检索环节。现如今大语言语言模型的提出可以充当一个高质量的对话机器人,实现生成更多有价值信息的回复;然而
华师数据学院·王嘉宁
·
2023-07-30 23:43
论文解读
问答系统
预训练语言模型
对话系统
SimKGC: Simple
Contrastive
Knowledge Graph Completion with Pre-trained Language Models 2022ACL
SimKGC:SimpleContrastiveKnowledgeGraphCompletionwithPre-trainedLanguageModels2022ACLSimKGC:基于预训练语言模型的简单对比知识图补全方法分为两类:基于文本的方法有KG-BERT,基于图嵌入的方法:TransE、RotatE、TransH、Tucker.KG-BERT、StAR、BLP采用预训练语言模型计算嵌入。
失眠的树亚
·
2023-07-23 07:40
论文
知识图谱
语言模型
人工智能
PICO:
CONTRASTIVE
LABEL DISAMBIGUATION FOR PARTIAL LABEL LEARNING
部分标签学习(PLL)是一个重要的问题,它允许每个训练示例使用一个粗略的候选集进行标记,这非常适合许多具有标签模糊性的真实数据标注场景。尽管有这样的承诺,PLL的性能往往落后于监督的同类产品。在这项工作中,我们通过在一个连贯的框架中解决PLL表征学习和标签消歧中的两个关键研究挑战来弥合这一差距。具体来说,我们提出的框架PiCO包括一个对比学习模块和一个新的基于类原型的标签消歧算法。PiCO为来自同
Tsukinousag
·
2023-07-22 19:55
论文复现-4:ConSERT: A
Contrastive
Framework for Self-Supervised Sentence Representation Transfer
文章目录文中的相似度测评距离相似度测评方法效果评估1.**pearson**相关系数2.**spearman**相关系数代码源文件:EmbeddingSimilarityEvaluator.py文中的相似度测评距离距离测评公式文章整理相似度距离测评方法主要有:余弦距离、曼哈顿距离、欧式距离、dotproductcosine_scores=1-(paired_cosine_distances(emb
YingJingh
·
2023-07-20 11:15
人工智能
机器学习
Semantically
Contrastive
Learning for Low-light Image Enhancement 论文阅读笔记
这是AAAI2022的一篇无监督暗图增强论文introduction中提到一个重要观点:前景和背景的增强策略需要区别对待,而语义信息可以辅助进行区域的辨别,从而有利于统一物体区域内部的亮度一致性(我的理解是,其实也和空间、景深有关,在简单的光源分布下相同景深相邻区域的物体通常具有相同的照度,而同一物体区域内的像素通常具有相同的景深,并且一般还有相近的颜色,从而具有相近的亮度)。文章的贡献之一是提出
sysu_first_yasuo
·
2023-07-15 23:33
论文阅读笔记
深度学习
计算机视觉
人工智能
Contrastive
Loss 对比损失函数
ContrastiveLoss定义在caffe的孪生神经网络(siamesenetwork)中,其采用的损失函数是contrastiveloss,这种损失函数可以有效的处理孪生神经网络中的paireddata的关系。contrastiveloss的表达式如下:[注意这里设置了一个阈值m(margin),表示我们只考虑不相似特征欧式距离在0~margin之间的,当距离超过margin的,则把其los
Replete
·
2023-06-17 19:34
深度学习
人工智能
[2021] Spatio-Temporal Graph
Contrastive
Learning
21-Spatio-TemporalGraphContrastiveLearning郑宇、梁玉轩1摘要深度学习模型是时空图(STG)预测的现代工具。尽管它们很有效,但它们需要大规模的数据集来获得更好的性能,并且容易受到噪声扰动。为了减轻这些限制,一个直观的想法是使用流行的’数据增强’和’对比学习’技术。然而,现有的图对比学习方法由于三个原因不能直接应用于STG预测。经验发现,预测任务无法从对比学习
小卜妞~
·
2023-06-16 17:21
#
时空序列预测/智慧城市
对比学习
深度学习
论文
论文笔记--SimCSE: Simple
Contrastive
Learning of Sentence Embeddings
论文笔记--SimCSE:SimpleContrastiveLearningofSentenceEmbeddings1.文章简介2.文章概括3文章重点技术3.1对比学习ContrastiveLearning3.2UnsupervisedSimCSE3.3SupervisedSimCSE3.4Anisotropy3.5AlignmentandUniformity4.文章亮点5.原文传送门6.Refe
Isawany
·
2023-06-12 18:48
论文阅读
论文阅读
bert
SimCSE
对比学习
RoBERTa
CONT:
Contrastive
Neural Text Generation
CONT:ContrastiveNeuralTextGeneration首先,CONT使用自己的预测中的负面例子(§3.1)来构建B集。(原因解释:Kalkstein等人[18]指出,使用不同的对比性样本有助于提高模型的泛化能力。因此,我们使用多样化的beamsearch搜索算法[49],从模型lastedpredictions的top-K列表中创建对比性样本,然后将其附加到同批次的样本中,形成对
YingJingh
·
2023-06-12 17:11
机器学习
python
深度学习
度量学习Metirc Learning和基于负例的对比学习
Contrastive
Learning的异同点思考
参考:对比学习(ContrastiveLearning):研究进展精要-知乎参考:对比学习论文综述【论文精读】_哔哩哔哩_bilibili参考:度量学习DML之ContrastiveLoss及其变种_对比损失的变种_胖胖大海的博客-CSDN博客参考:度量学习DML之TripletLoss_tripleloss泛化能力差_胖胖大海的博客-CSDN博客参考:度量学习DML之LiftedStructur
胖胖大海
·
2023-06-10 23:57
度量学习
DML
对比学习
度量学习
Simple Graph
Contrastive
Learning for Recommendation
AreGraphAugmentationsNecessary?SimpleGraphContrastiveLearningforRecommendation图增强是必要的吗?用于推荐的简单图对比学习方法来源:SIGIR2022摘要:对比学习(CL)最近在推荐领域中获得了广泛的研究成果,因为它从原始数据中提取自我监督信号的能力与推荐系统解决数据稀疏性问题的需求非常一致。基于cl的推荐模型的一个典型框
Collapsar丶
·
2023-06-10 12:51
《
Contrastive
Learning for Unpaired Image-to-Image Translation》
ContrastiveLearningforUnpairedImage-to-ImageTranslation1.摘要2.介绍3.相关工作3.1图像转换、循环一致性3.2关系保持3.3深度网络嵌入中的感知相似性3.4对比表示学习4.方法原文及代码链接https://github.com/taesungp/
contrastive
-unpaired-translation1
NorthSmile
·
2023-06-09 12:10
深度学习
计算机视觉
人工智能
深度学习
文章分享《MAML is a noisy
contrastive
learner in classification》
MAMLisanoisycontrastivelearnerinclassification作者:Chia-HsiangKaoWei-ChenChiuPin-YuChen时间:2022期刊:ICLRABSTRACT总结:Model-agnosticmeta-learning(MAML)的不足:文中认为,内循环和外循环的结构使MAML专注于特定的学习任务,MAML的潜在学习目标仍然是隐含的,因此阻碍
宝剑磨,梅花寒
·
2023-06-09 08:52
机器学习
python
机器学习
深度学习
分类
文章分享《Supervised
Contrastive
Learning》 自监督对比学习和有监督对比学习的区别
文章题目SupervisedContrastiveLearning作者:PrannayKhoslaPiotrTeterwakChenWangAaronSarna时间:2020会议:NeurIPS文章的主要思想文中的一张图很清楚明了的表明了自监督对比学习与有监督对比学习的区别。自监督的对比学习中,一个样本对应着dataaugmentation一个正样本和多个负样本,以往的关于对比学习的研究中,也是热
宝剑磨,梅花寒
·
2023-06-09 08:52
机器学习
python
机器学习
深度学习
分类
论文阅读:CIL:
Contrastive
Instance Learning Framework for Distantly SupervisedRelation Extraction
论文:CIL:ContrastiveInstanceLearningFrameworkforDistantlySupervisedRelationExtraction用于远距离监督关系提取的对比实例学习框架链接:[2106.10855]CIL:ContrastiveInstanceLearningFrameworkforDistantlySupervisedRelationExtraction(a
三三木木七
·
2023-06-09 06:04
nlp学习之路
论文阅读
深度学习
人工智能
多模态 | Supervised Prototypical
Contrastive
Learning for Emotion Recognition in Conversation论文详解及实现
本文主要详细描述了SupervisedPrototypicalContrastiveLearningforEmotionRecognitioninConversation论文详解及实现。论文详解2022.10.17_SupervisedPrototypicalContrastiveLearningforEmotionRecognitioninConversation用于对话中情绪识别的监督原型对比
夏天|여름이다
·
2023-06-09 03:29
-
多模态
-
-
Speech
-
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他