E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
knowledge】
【论文阅读】Evaluating Mixed-initiative Conversational Search Systems via User Simulation
OriginalPaperMotivationContributionMethodsSemantically-controlledtextgenerationGPT2-basedsimulateduserDatasetsQulacandClariQMulti-turnconversationaldataFutureWork
Knowledge
OriginalPaperEvaluatingMi
长命百岁️
·
2022-11-30 05:19
信息检索
论文阅读
论文阅读
知识图谱-KGE(
Knowledge
Graph Embedding):负采样
引言:负采样方法最初是被用于加速Skip-Gram模型的训练,后来被广泛应用于自然语言处理(NLP)、计算机视觉(CV)和推荐系统(RS)等领域,在近两年的对比学习研究中也发挥了重要作用。本文聚焦于负采样方法,将各领域的相关工作分为五类进行介绍:静态负采样;强负例采样;对抗式负采样;基于图的负采样;引入额外信息的负采样;1.研究背景1.1什么是负采样?在深度神经网络模型中,数据集中的每个句子、每对
u013250861
·
2022-11-30 03:59
#
知识图谱
人工智能
负采样
【IJCAI2020-论文分享】
Knowledge
Hypergraphs Prediction Beyond Binary Relations(知识表示)
【IJCAI2020-论文分享】
Knowledge
HypergraphsPredictionBeyondBinaryRelations(知识表示)目前基于嵌入的知识图谱的表示方式都默认所有的关系为二元关系
Shmily~_~
·
2022-11-30 03:27
IJCAI2020论文分享
自然语言处理
深度学习
机器学习
Knowledge
Hypergraphs: Prediction Beyond Binary Relations[IJCAI-2020]
Weaddressthequestionoflinkpredictionin
knowledge
hypergraphswhererelationsaredefinedonanynumberofentities
苏酥0909
·
2022-11-30 03:56
知识图谱
人工智能
今日arXiv精选 | 11篇ICCV 2021最新论文
ExplainMethePainting:Multi-Topic
Knowledge
ableArtDescriptionGenerationComment:ICCV2021Link:http://arxiv.org
PaperWeekly
·
2022-11-30 03:11
人工智能
firebug
sms
animation
nagios
Web开发及人机交互导论 大作业
BikeSharingWebDevelopmentProjectrequirements:Project
knowledge
pointsPlanning,AnalysisandDesignDocumentation1
上山打老虎D
·
2022-11-30 02:54
Web开发及人机交互导论
js
javascript
css
html
html5
对数据集进行k匿名(k-Anonymity)处理(python)——以adult数据集为例
L.Sweeney.Achievingk-anonymityprivacyprotectionusinggeneralizationandsuppression.InternationalJournalonUncertainty,Fuzzinessand
Knowledge
-basedSystems
tales_teller
·
2022-11-30 02:51
一些作业
python
开发语言
BART model
通过用mask标记来替换原始文本的填充方式Relevant
knowledge
Autoregressive:仅根据过去的预测信息来预测未来的信息。
刘皮狠
·
2022-11-30 01:00
论文阅读
NLP
深度学习
人工智能
知识蒸馏 (一) 综述
一、综述*《
Knowledge
Distillation:ASurvey》2021IJCV《
Knowledge
DistillationandStudent-TeacherLearningforVisualIntelligence
刘咚咚的记事本
·
2022-11-30 00:58
Knowledge
Distillation
深度学习
神经网络
Knowledge
Distillation A Survey - 知识蒸馏综述
2020IJCV-
Knowledge
DistillationASurvey-arXiv2006.05525文章目录2020IJCV-
Knowledge
DistillationASurvey-arXiv2006.05525
亚索不能玩
·
2022-11-30 00:25
sketch
机器学习
深度学习
人工智能
知识蒸馏现状与未来
1.综述1.
Knowledge
Distillation:ASurveyCVPR,20202.LinWangandKuk-JinYoon.
Knowledge
distillationandstudent-teacherlearningforvisualintelligence
刘大壮_
·
2022-11-30 00:23
深度学习
算法
计算机视觉
深度学习
知识蒸馏综述
AComprehensiveOverhaulofFeatureDistillation模型剪枝简介蒸馏算法分为多种,基于特征、logit以及基于关系的三种1logit蒸馏1.1开山之作论文名称:Distillingthe
Knowledge
inaNeuralNetworkHilton2015
henyaoyuancc
·
2022-11-30 00:21
深度学习
深度学习
算法
计算机视觉
知识蒸馏综述:蒸馏机制
【GiantPandaCV导语】
Knowledge
DistillationASuvery的第二部分,上一篇介绍了知识蒸馏中知识的种类,这一篇介绍各个算法的蒸馏机制,根据教师网络是否和学生网络一起更新,可以分为离线蒸馏
*pprp*
·
2022-11-30 00:18
论文阅读
知识蒸馏
计算机视觉
算法
深度学习
知识蒸馏
对话生成方法中的“共鸣”
今天推荐的是一篇对话生成方向的论文(EmpatheticDialogueGenerationviaSensitiveEmotionRecognitionandSensible
Knowledge
Selection
爱工作的小小酥
·
2022-11-29 18:24
自然语言处理
神经网络
深度学习
阿里云天池大赛赛题解析(深度学习篇)--阅读笔记1--赛题一
文章目录阿里云天池大赛赛题解析(深度学习篇)--阅读笔记1前言赛题一瑞金医院MMC人工智能辅助构建知识图谱背景任务介绍知识图谱(
Knowledge
Graph)发展历史表达方式构建方式知识推理知识补充前言如果说机器学习主要解决大数据的应用问题
jsBeSelf
·
2022-11-29 14:19
阿里云
深度学习
人工智能
论文笔记:AAAI 2020 Learning Hierarchy-Aware
Knowledge
Graph Embeddings for Link Prediction
1.前言论文链接:https://arxiv.org/pdf/1911.09419.pdfgithub:https://github.com/MIRALab-USTC/KGE-HAKEHAKE将实体映射到极坐标系中。HAKE受到这样一个事实的启发:极坐标系中的同心圆可以自然地反映层次结构。具体来说,径向坐标旨在对层次结构不同级别上的实体进行建模,半径较小的实体应该位于较高的级别;角坐标旨在区分层次
饮冰l
·
2022-11-29 13:36
知识图谱
机器学习
深度学习
数据挖掘
神经网络
Learning Hierarchy-Aware
Knowledge
Graph Embeddings for Link Prediction论文阅读
LearningHierarchy-Aware
Knowledge
GraphEmbeddingsforLinkPrediction摘要介绍模型moduluspart模数部分phasepart相位部分模数与相位的结合改进损失函数摘要知识图嵌入旨在将实体和关系表示为低维向量
小高高不要bug
·
2022-11-29 13:02
nlp
人工智能
HAKE笔记:Learning Hierarchy-Aware
Knowledge
Graph Embeddings for Link Prediction
原文:LearningHierarchy-Aware
Knowledge
GraphEmbeddingsforLinkPrediction代码:https://github.com/MIRALab-USTC
zzflybird
·
2022-11-29 13:30
论文阅读笔记
知识图谱
论文阅读2 Learning Hierarchy-Aware
Knowledge
Graph Embeddings for Link Prediction
目录问题创新1、Introduction2、相关工作3、HAKE模型原文:[1911.09419]LearningHierarchy-Aware
Knowledge
GraphEmbeddingsforLinkPrediction
huihui冲啊
·
2022-11-29 13:58
论文阅读
论文阅读
知识图谱的构建及可视化
知识图谱知识图谱
Knowledge
Graph/Vault,又称科学知识图谱,用各种不同的图形等可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。
只需倾心
·
2022-11-29 13:34
知识图谱
人工智能
自然语言处理
Lifelong Person Re-Identification via Adaptive
Knowledge
Accumulation论文笔记
LifelongPersonRe-IdentificationviaAdaptive
Knowledge
AccumulationAbstract提出LReID,设计了Adaptive
Knowledge
Accumulation
黑曜石小刀
·
2022-11-29 09:09
计算机视觉
深度学习
人工智能
【CVPR 2021】 Lifelong Person Re-Identification via Adaptive
Knowledge
Accumulation
方法概述1,文章提出了一种终身学习的personre-ID方法,该方法可以持续不断地跨多域学习。2,文章提出了用于上述终身学习方法的AKA框架,该框架包含一个可学习的知识图用于更新之前的知识,同时,该框架转移知识来提高看不见领域上的泛化性。3,文章为LReID提供了一个基线和评估策略。文章目录方法概述内容概要工作概述成果概述方法详解方法框架具体实现实验结果总体评价引用格式参考文献内容概要论文名称简
_Summer tree
·
2022-11-29 09:31
论文解析
Re-ID
行人重识别
Re-ID
终身学习
知识累积
CVPR
FreeKD:Free-direction
Knowledge
Distillation for Graph Neural Networks
标题:FreeKD:Free-direction
Knowledge
DistillationforGraphNeuralNetworks1、什么是知识蒸馏?
卧语寒蝉
·
2022-11-29 09:56
深度学习
Knowledge
Distillation Meets Self-Supervision——知识蒸馏论文阅读
目录Abstract一、Introduction二、Methodology2.1ContrastivePredictionasSelf-SupervisionTask对比预测作为自我监督任务2.2LearningSSKD3.2ImperfectSelf-SupervisedPredictions不完美的自我监督预测总结Abstract1.希望探索一个更普遍和模型不可知论的方法,从预先训练的教师模型
l-mmf
·
2022-11-29 08:22
知识蒸馏论文阅读
python
开发语言
Relational
Knowledge
Distillation——知识蒸馏论文阅读
文章目录一、Abstract二、方法步骤1.Introduction2.Approach1.距离上的蒸馏损失2.角度上的蒸馏损失3.RKD训练三、实验四、总结一、Abstract1.知识蒸馏旨在将从一个模型(教师)中获得的知识转移到另一个模型(学生)中,这个模型通常更小。以前的方法可以表示为一种训练学生模仿教师所代表的个别数据示例的输出激活的形式。2.我们引入了一种新的方法,称为关系知识蒸馏(RK
l-mmf
·
2022-11-29 08:52
知识蒸馏论文阅读
python
matplotlib
开发语言
A Gift from
Knowledge
Distillation: Fast Optimization, Network Minimization and Transfer Learning
知识的三种形式一、摘要二、方法步骤1.解决问题的流程-FSP2.蒸馏方法3.结果总结知识的三种形式1.Responsed-Based
Knowledge
:小模型学习大模型的输出(Hinton)2.Feature-Based
Knowledge
l-mmf
·
2022-11-29 08:51
知识蒸馏论文阅读
深度学习
人工智能
Knowledge
Distillation with Conditional Adversarial Networks论文初读
目录摘要引言相关工作网络加速知识蒸馏GAN知识蒸馏的损失函数残差结构知识蒸馏用对抗网络学习知识实验实验设置GAN学习的优势GAN方法的分析分布可视化结论摘要提出了使用CAN(conditionaladversarialnetworks)来搭建teacher-student架构提出的方法对相对较小的student网络特别有效实验展示了当前流行的网络作为student时,网络大小对结果的影响实验研究了
待墨痕干
·
2022-11-29 08:17
知识蒸馏
【Distilling】《Learning Efficient Object Detection Models with
Knowledge
Distillation》
NIPS-2017文章目录1BackgroundandMotivation2Advantages/Contributions3Method3.1
Knowledge
DistillationforClassificationwithImbalancedClasses3.2
Knowledge
DistillationforRegressionwithTeacherBounds3.3HintLearning
bryant_meng
·
2022-11-29 08:15
CNN
Knowledge
Distillation 笔记
Inter-RegionAffinityDistillationforRoadMarkingSegmentation(2020.04)YuenanHou1,ZhengMa2,ChunxiaoLiu2,Tak-WaiHui1,andChenChangeLoy3y1TheChineseUniversityofHongKong2SenseTimeGroupLimited3NanyangTechnolog
DreamLike_zzg
·
2022-11-29 08:14
paper
reading
知识蒸馏
(转)Awesome
Knowledge
Distillation
Awesome
Knowledge
Distillation2018-07-1910:38:40Reference:https://github.com/dkozlov/awesome-
knowledge
-distillationPapersCombininglabeledandunlabeleddatawithco-training
a1424262219
·
2022-11-29 08:44
python
人工智能
lua
Training Shallow and Thin Networks for Acceleration via
Knowledge
Distillation with Conditional Adve
目录一.Abstract二、相关介绍三、算法步骤3.1带有残余连接的神经网络3.2
Knowledge
distillation3.3对抗网络的学习损失studentupdate总结一.Abstract1.
l-mmf
·
2022-11-29 08:14
知识蒸馏论文阅读
python
人工智能
python pca主成分_主成分分析pca本质和python案例研究
andwecangetinsightfulinformationfromdata.However,tonsofdatainahighnumberofdimensionsmaycovervaluable
knowledge
.Therefore
weixin_26642481
·
2022-11-29 01:22
python
人工智能
论文阅读——学习与知识图交互背后的意图以供推荐
WangX,HuangT,WangD,etal.LearningIntentsbehindInteractionswith
Knowledge
GraphforRecommendation[J].2021.
春春辉
·
2022-11-28 23:43
论文阅读
知识图谱论文阅读(十六)【WWW2019】
Knowledge
Graph Convolutional Networks for Recommender
题目:KGCN论文链接:代码链接:https://github.com/hwwang55/KGCN想法高阶的意思就是multi-hop的意思注意是从外向里聚合的,第h-1跳是外侧,第h跳是里侧!所以才有聚合邻居和本身之说创新摘要为了充分利用KG中的信息,我们会扩展某个实体的感受野到multi-hop来捕获KG的高阶结构信息和语义信息。数据集:电影、书籍和音乐推荐Introduction常用的KGE
追赶早晨
·
2022-11-28 23:42
知识图谱
知识图谱论文阅读
知识图谱
深度学习
人工智能
KGCN 2019 (WWW)
Knowledge
Graph Convolutional Networks for Recommender Systems
基于KG推荐的优点KG中项目之间的丰富语义关联可以帮助探索用户物品间潜在的联系并提高结果的准确性。KG中的各种关系有助于合理地扩展用户的兴趣并增加推荐项目的多样性KG连接了用户的历史喜欢和推荐的商品,从而为推荐系统带来了可解释性。本文的探索本文主要的目标是利用知识图谱中高阶结构和语义信息提高推荐的准确性,并提供推荐合理的可解释性。受到了GCN的启发,对于知识图谱中的实体,利用其邻居信息和偏差计算该
TVfan
·
2022-11-28 23:42
基于知识图谱的推荐系统
知识图谱
推荐系统
知识图谱论文阅读(十五)【arxiv】A Survey on
Knowledge
Graph-Based Recommender Systems
论文题目:ASurveyon
Knowledge
Graph-BasedRecommenderSystems论文链接:论文代码:想法出现Refine就是用某些方法更好的优化特征表示embed的意思就是变成低维向量
追赶早晨
·
2022-11-28 23:41
知识图谱
知识图谱论文阅读
知识图谱
人工智能
机器学习
KGCN 论文阅读笔记
KGCN论文笔记原文链接:
Knowledge
GraphConvolutionalNetworksforRecommenderSystems1问题定义1.1已知条件大小为M的用户集U={u1,u2,...
Patrick_cyk
·
2022-11-28 23:11
知识图谱
图神经网络
GNN
推荐算法
机器学习
算法
KGCN:
Knowledge
Graph Convolutional Networks for Recommender Systems
emm…图片复制过来显示不了(因为我太懒了0.0),要看图的话可以去我的博客瞅瞅,嘿嘿嘿对了,有些英文短句假如翻译成中文,阅读的时候就太搞脑子了,所以我干脆就不翻译了我的博客地址:https://hikg.net/archives/119/IntroductionAdvantagesofKG-basedRS将KG整合进推荐系统具有以下3种优点:KG中的item之间具有丰富的语义关联性,可以帮助探索
Moonpie.
·
2022-11-28 23:09
KG
RecSys
深度学习
神经网络
知识图谱
推荐系统
【kg推荐->精读】Differentiable Sampling on
Knowledge
Graph for Recommendation with Relational GNN
DSKReGDifferentiableSamplingon
Knowledge
GraphforRecommendationwithRelationalGNNAbstract出现冷启动问题时,将KGs作为
小明2766
·
2022-11-28 23:38
推荐系统
知识图谱
论文阅读
人工智能
1024程序员节
KGCN_基于知识图谱的推荐系统(KG+GCN)
Knowledge
GraphConvolutionalNetworksforRecommenderSystemsHongweiWang,MiaoZhao,XingXie,WenjieLi,MinyiGuo.InProceedingsofThe2019WebConference
默默然咯
·
2022-11-28 23:37
推荐系统
知识图谱
推荐系统
神经网络
tensorflow
Knowledge
Graph
实体关系、实体属性、三元组、SPO三元组及其抽取方案https://zhuanlan.zhihu.com/p/2374529181.引言实体识别;实体关系抽取;事件抽取。1.1.关系、实体关系、实体属性、三元组、SPO三元组、是一回事吗?“三元组”标注。“榆林神木”、“矿藏”、“镁”三个词语构成了一个三元组(triple)。实体关系抽取。“榆林神木”、“镁”是两个实体,而“矿藏”表示“榆林神木”地
MightKai
·
2022-11-28 23:50
笔记
知识图谱
自然语言处理
知识图谱——关系抽取
知识图谱关系类别Freebase:4000多万实体,上万个属性关系,24多亿个事实三元组DBpeida:400多万实体,48,293种属性关系,10亿个事实三元组NELL:519万实体,306种关系,5亿候选三元组
Knowledge
Vau
无脑敲代码,bug漫天飞
·
2022-11-28 23:19
知识图谱
人工智能
知识图谱
OPEN-VOCABULARY OBJECT DETECTION VIAVISION AND LANGUAGE
KNOWLEDGE
DISTILLATION
通过视觉和语言知识提炼进行开放词汇的物体检测摘要我们的目标是推进开放词汇的物体检测,它可以检测由任意文本输入描述的物体。根本的挑战是训练数据的可用性。现有的物体检测数据集只包含数百个类别,而且进一步扩展成本很高。为了克服这一挑战,我们提出了ViLD,一种通过视觉和语言知识提炼的训练方法。我们的方法是将预先训练好的开放词汇图像分类模型(教师)的知识提炼成两阶段的检测器(学生)。具体来说,我们使用教师
appron
·
2022-11-28 20:06
开放集识别
目标检测
计算机视觉
深度学习
深度知识追踪DKT
深度知识追踪DKT(Deep
Knowledge
Tracing)讲解得比较通俗易懂的博文:http://blog.kintoki.me/2017/06/06/tensorflow-dkt/
西汉高颜值豌豆
·
2022-11-28 19:59
论文拓展
人工智能
深度学习
tensorflow
Deep
Knowledge
Tracing with Transformers论文阅读
ArtificialIntelligenceinEducation(pp.252-256)2020年6月代码https://github.com/scott-pu-pennstate/dktt_light论文地址(PDF)Deep
Knowledge
TracingwithTransformers
sereasuesue
·
2022-11-28 19:29
知识追踪
知识追踪
transformer
DKT
Transformers
深度知识追踪(DKT)实现pytorch(及常见问题)
发现代码跑了几遍还是没有自己按照思路写一遍清楚参考代码GitHub-dxywill/deep
knowledge
tracing:PytorchimplementationforDeep
Knowledge
tracing
sereasuesue
·
2022-11-28 19:59
知识追踪
问题记录
环境搭建等
sklearn
人工智能
python
知识追踪
KT
DKT—Going Deeper with Deep
Knowledge
Tracing
复现的作者代码,使用TensorFlow0.12.1,cpu运行太慢了,19分钟一个epoch。然后想用gpu,在googlecolab上使用TensorFlow1.15.2gpu,40秒一个epoch。看源码应该用了不止一天,虽然代码不长,就跟最基础的神经风格迁移代码长度差不多,which我只用了一个上午。1)使用原始的TensorFlow,处理矩阵异常难懂。各种tf.函数2)刚开始接触RNN。
卢容和
·
2022-11-28 18:57
知识追踪
深度学习
自然语言处理
DKT学习
《知识追踪综述》《Deep
Knowledge
Tracing》DKT模型DKT是Deep
Knowledge
Tracing的缩写,即深度知识追踪,论文中采用了两种模型,一种是带有sigmoid单位的普通RNN
qq_40282662
·
2022-11-28 18:26
GNN
DKT+模型
《AddressingTwoProblemsinDeep
Knowledge
TracingviaPrediction-ConsistentRegularization》DKT模型存在的两个问题1.无法重构观察到的输入
qq_40282662
·
2022-11-28 18:26
GNN
【阅读笔记】应用LRP,通过将相关性从模型的输出层反向传播到其输入层来解释基于RNN的DKT模型(一)
提示:TowardsInterpretableDeepLearningModelsfor
Knowledge
Tracing将重点放在应用分层相关传播(LRP)方法,通过将相关性从模型的输出层反向传播到其输入层来解释基于
carbage诶
·
2022-11-28 18:54
笔记
rnn
深度学习
lstm
上一页
42
43
44
45
46
47
48
49
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他