E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Latent
推荐算法——潜在因子(
Latent
Factor)算法
本算法整理自知乎上的回答@nicklee应用领域:“网易云音乐歌单个性化推荐”、“豆瓣电台音乐推荐”等。这种算法是在NetFlix(没错,就是用大数据捧火《纸牌屋》的那家公司)的推荐算法竞赛中获奖的算法,最早被应用于电影推荐中。这种算法在实际应用中比现在排名第一的@邰原朗所介绍的算法误差(RMSE)会小不少,效率更高。我下面仅利用基础的矩阵知识来介绍下这种算法。这种算法的思想是这样:每个用户(us
JasionDai
·
2020-01-06 21:34
【文魁大脑实用记忆第五期】贤派琛第四次案例——地点法与歌诀法的运用
图片发自App1、音箱:lamb羔羊:我在音箱旁跟着音乐摇摆,拉(la)着羔羊喂面包(mb)窗户:
latent
跛的:天才(talent)摔了个跟头(两单词中t,l相反),把脚摔坏了,倚在窗边,结果窗玻璃碎了
么啊陆奇呀
·
2020-01-05 02:27
Waymo收购人工智能公司
Latent
Logic 希望加强模拟技术
作者:小狐狸【TechWeb】12月16日消息,据国外媒体报道,谷歌母公司Alphabet旗下的自动驾驶部门Waymo收购了人工智能(AI)公司LatentLogic,以寻求加强自己的模拟技术。Waymo是在推特上宣布这笔交易的,但它没有透露此次收购的财务细节。此次收购使Alphabet在英国的一个关键地区获得了立足点,并使其有机会接触到当地人才。LatentLogic的总部位于英国牛津,是一家专
itwriter
·
2019-12-16 15:00
Waymo收购人工智能公司
Latent
Logic丨三星否认折叠屏手机销量破百万【Do说】
12月15日丨周日【Do说】编辑|赵艾虎Waymo收购人工智能公司LatentLogic,进军英国据网易科技援引英国《卫报》报道,近日,Waymo收购了英国一家专门从事自动驾驶汽车测试的人工智能(AI)公司——LatentLogic,表明了它对国际扩张的兴趣。LatentLogic开发的人工智能技术通过“模仿学习”的方式对人类行为进行模拟。Waymo可以利用这一技术训练自动驾驶汽车,方法是让人工智
DoNews
·
2019-12-15 00:00
[NLG]Unsupervised Discrete Sentence Representation Learning for Interpretable Neural Dialog Generat
什么叫可解释呢,我觉得这篇论文的意思就是,这个
latent
(意图,动作,相当于slot-value对)和这一句对话有直接的关系。
lwgkzl
·
2019-10-15 01:19
NLP
对话系统
概率隐语义分析(Probabilistic
Latent
Semantic Analysis, PLSA)
ProbabilisticLatentSemanticAnalysisPLSA来自于一篇1999年UAI的一篇文章,他研究的是一下概率图:其中d表示document,z是隐变量,表示潜在的语义,w是表示词word。从独立性来看,这个图跟下面的图是等价的,都满足d⊥w∣zd\botw|zd⊥w∣z所以在那篇原始论文中[1],求解模型的时候,直接求解了(b)模型。求解方法就是标准的EM方法(更多可看我
qjgods
·
2019-08-29 16:53
人工智能
Min-Entropy
Latent
Model for Weakly Supervised Object Detection
Min-EntropyLatentModelforWeaklySupervisedObjectDetection是fangwan在CVPR2018和IEEETPAMI发表的文章,两篇文章在表述上略有不同,本文对IEEETPAMI那篇文章进行一个翻译,以及会做一些注释(主要说说自己的理解,自己不懂的地方等),翻译用黑色,注释用红色,另外有些原文表述用的英文单词会用蓝色字体标出。最小熵隐变量模型的弱监
j_starry
·
2019-08-14 16:21
论文阅读
强化学习论文(5): Learning
Latent
Dynamics for Planning from Pixels
GoogleBrain,Deepmind提出的PlaNet论文地址:https://danijar.com/publications/2019-planet.pdf源码地址:https://github.com/google-research/planet摘要planning(规划)对已知环境转移动态的控制任务非常成功,如需在未知环境中使用planning,则agent需要通过环境交互学习转移动态
南阁风起
·
2019-07-24 15:55
算法基础
Meta-Learning with
Latent
Embedding Optimization (LEO)论文阅读
1.论文阅读Meta-LearningwithLatentEmbeddingOptimization该文是DeepMind提出的一种meta-learning算法,该算法是基于ChelseaFinn的MAML方法建立的,主要思想是:直接在低维的表示zzz上执行MAML而不是在网络高维参数θ\thetaθ上执行MAML。2.模型及算法如图所示,假设执行N-wayK-shot的任务,encoder和r
Liekkas_Javey
·
2019-06-25 17:43
学术
C-PLS(Concurrent Projection to
Latent
Structures)并发潜结构映射
1、提出原因:PLS:第一,在得分空间中构造的统汁量T2,包含了与输出正交的成分,但这些变量与输出是不相关的。第二,PLS不像PCA那样在输入空间中按递减的顺提取方差信息。因此,由输入残差了空间仍然包含了大量的变量信息,普通的PLS模型中不适合通过Q统计量来监测过程。T-PLS:第一,输出相关的监控指标只是检测那些能从过程变量中预测得到的质量变量。而在很多情况下,由于存在大量的不可测量的过程和质量
MSPM
·
2019-04-22 16:33
从三硬币到主题模型(LDA,
Latent
Dirichlet Allocation)
目录从三硬币到1+K个多面体1+K个多面体分析与建模Gibbs采样求解M+K个多面体主题模型(LDA,LatentDirichletAllocation)参考从三硬币到1+K个多面体三硬币问题建模及Gibbs采样求解(Python实现)一文中详细介绍了三硬币问题的建模和使用Gibbs采样求解的方法。如果把三枚硬币换成一个K面体和K个V面体呢?或者变成M个K面体和K个V面体呢?1+K个多面体假设1+
初沏的茶
·
2019-03-13 10:51
机器学习
从三硬币到主题模型(LDA,
Latent
Dirichlet Allocation)
目录从三硬币到1+K个多面体1+K个多面体分析与建模Gibbs采样求解M+K个多面体主题模型(LDA,LatentDirichletAllocation)参考从三硬币到1+K个多面体三硬币问题建模及Gibbs采样求解(Python实现)一文中详细介绍了三硬币问题的建模和使用Gibbs采样求解的方法。如果把三枚硬币换成一个K面体和K个V面体呢?或者变成M个K面体和K个V面体呢?1+K个多面体假设1+
初沏的茶
·
2019-03-13 10:51
机器学习
弱监督检测文章解读之Min-Entropy
Latent
Model for Weakly Supervised Object Detection
弱监督目标检测:Weaklysupervisedobjectdetection(WSOD)文章:Min-EntropyLatentModelforWeaklySupervisedObjectDetection简介:因为弱监督检测只提供图像的类别标注,而不提供检测框的位置标注。因此弱监督和学习目标之间的不一致性引入了对象位置的随机性和对检测器的模糊性。文章提出熵最小化潜模型用于弱监督目标检测,Min
一路狂奔的猪
·
2019-03-11 14:31
弱监督检测
论文泛读笔记《Neural
Latent
Extractive Document Summarization》
文章目录0摘要1介绍2模型2.1神经网络抽取式摘要模型2.2句子压缩2.3使用隐变量做抽取式摘要3实验结果4个人阅读总结0摘要这应该是第一个提出把句子作为隐变量的抽取式摘要模型。1介绍过去的抽取式摘要技术多是把这个看作句子序列标注二分类问题或者句子排序问题。传统方法主要有用人工特征做二分类器的方法,隐马尔可夫模型法,基于图的方法,基于ILP(线性整数规划)的方法。后来2016-2017年基本上都是
0x落尘
·
2019-02-25 23:41
自然语言处理
自动摘要
【细节讲解】GAN: walking in
latent
space 如何探索潜在空间?结合DCGAN论文
结合DCGAN论文,本博客旨在讲解如何探索潜在空间。在DCGAN中,我们利用噪声zzz产生图片。我们想探索噪声对最终图片的影响,并且试图证明GAN网络并不是简单的记住了训练样本。这个噪声zzz所在的空间就是所谓的潜在空间。看到DCGAN原文的人,一定知道怎么探索,那就是利用插值的方法。**但是如何插值呢?**本博客就是手把手教你如何插值。从理论到代码。1.怎么做插值?随机噪声z1z_1z1经过生成
月下花弄影
·
2019-01-14 14:08
十年磨一剑
pytorch
GAN之基础理论
PCA相关
参考博客matlab自带的实现方式[COEFF,SCORE,
latent
,tsquare]=princomp(X)在n行p列的数据集X上做主成分分析。X的每行表示一个样本的观测值,每一列表示特征变量。
duangyhn
·
2018-11-12 10:25
信号处理
[CVPR 18] Discriminative Learning of
Latent
Features for Zero-Shot Recognition
零样本学习新进展:使用鉴别性特征实现零样本识别DiscriminativeLearningofLatentFeaturesforZero-ShotRecognition本文亮点:对人类定义属性进行扩充,学习隐含属性。ZSL零样本学习(zero-shotlearning,ZSL)详见郑哲东在知乎中的回答。它的目标是通过训练阶段从已见类别中学习到的知识,来识别未见类别。Abstract摘要:零样本学习
hairui88
·
2018-11-02 18:24
论文笔记
gensim实现LDA(
Latent
Dirichlet Allocation)算法提取主题词(topic)
LatentDirichletAllocation(LDA)隐含分布作为目前最受欢迎的主题模型算法被广泛使用。LDA能够将文本集合转化为不同概率的主题集合。需要注意的是LDA是利用统计手段对主题词汇进行到的处理,是一种词袋(bag-of-words)方法。如: 输入:第一段:“Nowweareengagedinagreatcivilwar,testingwhetherthatnation,ora
limengmingx
·
2018-09-29 17:45
LDA
高光谱图像基于MATLAB的PCA降维
matlab中内含了进行PCA降维的函数,但这个函数输进去的数据要是二维的,所以我们先用resharp函数把原矩阵处理成111104*204的矩阵M再使用自带的降维函数:[pc,score,
latent
数风
·
2018-09-17 13:54
matlab
[ICCV 2017笔记] Learning Discriminative
Latent
Attributes for Zero-Shot Classification
学习判别性隐含属性实现零样本分类LearningDiscriminativeLatentAttributesforZero-ShotClassification本文亮点:对人类定义属性进行组合,学习隐含属性。文章目录[学习判别性隐含属性实现零样本分类LearningDiscriminativeLatentAttributesforZero-ShotClassification](http://op
一亩高粱
·
2018-08-21 09:50
paper
[CVPR 2018笔记] Discriminative Learning of
Latent
Features for Zero-Shot Recognition
零样本学习新进展:使用鉴别性特征实现零样本识别DiscriminativeLearningofLatentFeaturesforZero-ShotRecognition本文亮点:对人类定义属性进行扩充,学习隐含属性。ZSL零样本学习(zero-shotlearning,ZSL)详见郑哲东在知乎中的回答。它的目标是通过训练阶段从已见类别中学习到的知识,来识别未见类别。Abstract摘要:零样本学习
一亩高粱
·
2018-08-12 16:08
paper
ELEGANT: Exchanging
Latent
Encodings with GAN for Transferring Multiple Face Attributes
ELEGANT:ExchangingLatentEncodingswithGANforTransferringMultipleFaceAttributesTaihongXiao,JiapengHong,andJinwenMaAbstracttask:faceattributetransferexistingmethod:image-to-imagetranslationlimitations:(1
qq_36356761
·
2018-07-13 11:32
paper
reading
notes
Latent
Factor Model(LFM)隐语义模型
隐语义模型为推荐系统中很常见的使用机器学习的思想构建的模型,本文章参考http://blog.csdn.net/sinat_33741547/article/details/52976391以及项亮的《推荐系统实战》中部分理论知识。干货奉上,简单的讲隐语义模型就是构建一个物品与用户关系的超大矩阵,如下图1所示:图1上图中R为用户与物品的历史关系矩阵,其中R11···R34等等为用户对物品的兴趣度。
e883567fee09
·
2018-05-14 12:03
《Learning
Latent
Opinions for Aspect-level Sentiment Classification》阅读笔记
论文来源:AAAI2018本文的创新点:standardattentiondoesnotmodelstructuraldependenciesthatexistinsentences.在遇到复杂表达时,过去的attention机制可能会产生错误。本文增加了与conditionalrandomfield(CRF)相似的一层,为了捕获句子中的结构化依赖,而RNN只能获取到序列的隐含结构信息。本文模型的
best___me
·
2018-04-25 22:11
SVM ,
Latent
SVM ,structured SVM的介绍
Latent
['leɪt(ə)ntadj.潜在的;潜伏的;隐藏的SVM是什么?
tony2278
·
2018-03-24 11:05
opencv
正确使用Matlab中的PCA包
正确使用Matlab中的PCA包[coeff,score,
latent
]=pca(X);Xn×mXn×m:n个样本,每个样本m维coeff:特征向量,每一列表示一个特征向量。
HLBayes
·
2018-03-14 14:11
Matlab
python机器学习理论与实战(五)支持向量机
他的理论很优美,各种变种改进版本也很多,比如
latent
-SVM,structural-SVM等。
marvin521
·
2018-01-19 11:22
文本主题模型之潜在语义分析(LDA:
Latent
Dirichlet Allocation)
1、LDA作用传统判断两个文档相似性的方法是通过查看两个文档共同出现的单词的多少,如TF-IDF等,这种方法没有考虑到文字背后的语义关联,可能在两个文档共同出现的单词很少甚至没有,但两个文档是相似的。举个例子,有两个句子分别如下:“乔布斯离我们而去了。”“苹果价格会不会降?”可以看到上面这两个句子没有共同出现的单词,但这两个句子是相似的,如果按传统的方法判断这两个句子肯定不相似,所以在判断文档相关
data_evangelists
·
2018-01-15 15:13
数据挖掘
机器学习
推荐系统学习笔记之三 LFM (
Latent
Factor Model) 隐因子模型 + SVD (singular value decomposition) 奇异值分解
LowRankMatrixFactorization低阶矩阵分解在上一篇笔记之二里面说到我们有五部电影,以及四位用户,每个用户对电影的评分如下,?表示未评分。Movies\UserUser1User2User3User4Movie15500Movie25??0Movie3?40?Movie40054Movie5005?那么我们可以把第一个表格里的内容转化成一个矩阵R:R=⎡⎣⎢⎢⎢⎢⎢55?005
小鹅鹅
·
2017-10-19 23:13
推荐系统
推荐系统算法入门
NLP —— 图模型(三)pLSA(Probabilistic
latent
semantic analysis,概率隐性语义分析)模型
LSA(Latentsemanticanalysis,隐性语义分析)、pLSA(Probabilisticlatentsemanticanalysis,概率隐性语义分析)和LDA(LatentDirichletallocation,隐狄利克雷分配)这三种模型都可以归类到话题模型(Topicmodel,或称为主题模型)中。相对于比较简单的向量空间模型,主题模型通过引入主题这个概念,更进一步地对文本进
Determined22
·
2017-07-26 09:00
Notes—
Latent
Dirichlet Allocation,LDA主题模型
【数学之美】……未完待续……ref:1、★★★★★★★★★★通俗理解LDA主题模型★★★★★★★★★★2、主题模型-LDA浅析3、搜索背后的奥秘――浅谈语义主题计算4、主题模型TopicModel:主题模型LDA的应用5、DavidM.Blei,AndrewY.Ng,MichaelI.Jordan,LatentDirichletAllocation,JournalofMachineLearning
code_caq
·
2017-06-03 13:02
NLP
Notes
LDA(
Latent
Dirichlet Allocation)主题模型
LDA于2003年由DavidBlei,AndrewNg和MichaelI.Jordan提出,因为模型的简单和有效,掀起了主题模型研究的波浪。虽然说LDA模型简单,但是它的数学推导却不是那么平易近人,一般初学者会深陷数学细节推导中不能自拔。于是牛人们看不下去了,纷纷站出来发表了各种教程。国内方面rickjin有著名的《LDA数学八卦》,国外的GregorHeinrich有著名的《Parameter
Carl-Xie
·
2016-12-24 16:09
LDA
主题模型
机器学习
PCA方法对特征降维
用CNN抽了feature后,维度太高了,降维如下:%使用PCA对数据降维loadfc7.txt;[pc,score,
latent
,tsquare]=princomp(fc7);k=cumsum(
latent
小胖蹄儿
·
2016-12-01 17:37
杂
Matlab
[综]
Latent
Dirichlet Allocation(LDA)主题模型算法
多项分布http://szjc.math168.com/book/ebookdetail.aspx?cateid=1&§ionid=983 二项分布和多项分布http://blog.csdn.net/shuimu12345678/article/details/307739290-1分布:在一次试验中,要么为0要么为1的分布,叫0-1分布。二项分布:做n次伯努利实验,每次实验为1的概率为
编著人
·
2016-09-28 16:00
Latent
Embeddings for Zero-shot Classification
CVPR2016LatentEmbeddingsforZero-shotClassification本文还是针对zero-shotclassification问题。以前基于structuredembeddingframeworks解决这个问题的思路主要如下:首先将图像和类别信息映射到某些多维向量空间。一般图像的嵌入信息(Imageembeddings)通过CNN提取特征,类别嵌入信息Classem
cv_family_z
·
2016-07-29 16:56
深度学习
ZJ
CVPR
2016
Latent
Semantic Analysis(LSA)
背景:什么是LSA?LatentSemanticAnalysis(LSA)中文翻译为潜语义分析,也被叫做LatentSemanticIndexing(LSI)。意思是指通过分析一堆(不止一个)文档去发现这些文档中潜在的意思和概念,什么叫潜在的意思?我第一次看到这个解释,直接懵逼。其实就是发现文档的中心主题吧?假设每个词仅表示一个概念,并且每个概念仅仅被一个词所描述,LSA将非常简单(从词到概念存在
SA14023053
·
2016-06-17 18:00
NLP
LSA
在Python中使用LDA处理文本
评论(0) 1人收藏此文章, 我要收藏目录[-]安装示例说明:原文:http://chrisstrelioff.ws/sandbox/2014/11/13/getting_started_with_
latent
_dirichlet_allocation_in_python.html
Real_Myth
·
2016-04-25 09:00
Latent
Structural SVM
隐结构SVM(LatentStructuralSVM)让x∈χ,y∈{−1,1}并且h∈H分别表示我们问题中的输入、输出和隐变量。在我们的上下文中,x、y、h对应的是一幅图片、它的标签和一个窗口(或是boundingbox)。接下来的设定在[1]中,我们在一个联合输入/输出/隐变量空间O中考虑一个线性的预测规则。我们定一个一个输入/输出/隐变量映射Φ(x,y,h)∈X×Y×H→O⊂Rd这样Φ(x,
tianliangjay
·
2016-04-19 17:00
SVM
SLSVM
Latent
Dirichlet Allocation
主题模型LDA是一个主题模型,关于主题模型的解释有个很通俗的例子:第一个是:“乔布斯离我们而去了。”第二个是:“苹果价格会不会降?”我们一眼就可以看出这两句是有关联的,第一句里面有了“乔布斯”,我们会很自然的把“苹果”理解为苹果公司的产品,它们属于了同一个主题:苹果公司。而像我之前那种计算关联度的时候,即文档之间重复的词语越多越可能相似,是无法达到这个效果的。文档之间重复的词语越多越可能相似,这一
Lansing999
·
2016-04-16 21:00
NLP
LDA
主题模型
语义分析
Windows下运行Discriminatively Trained Deformable Part Models代码 Version 4
代码Version4 Felzenszwalb的DiscriminativelyTrainedDeformablePartModels URL:http://www.cs.brown.edu/~pff/
latent
tiandijun
·
2016-01-27 14:00
使用LFM(
Latent
factor model)隐语义模型进行Top-N推荐[转]
原文地址:http://blog.csdn.net/harryhuang1990/article/details/9924377最近在拜读项亮博士的《推荐系统实践》,系统的学习一下推荐系统的相关知识。今天学习了其中的隐语义模型在Top-N推荐中的应用,在此做一个总结。隐语义模型LFM和LSI,LDA,TopicModel其实都属于隐含语义分析技术,是一类概念,他们在本质上是相通的,都是找出潜在的主
onmyway_1985
·
2016-01-02 19:00
Latent
semantic analysis note(LSA)
1LSAIntroductionLSA(latentsemanticanalysis)潜在语义分析,也被称为LSI(latentsemanticindex),是ScottDeerwester,SusanT.Dumais等人在1990年提出来的一种新的索引和检索方法。该方法和传统向量空间模型(vectorspacemodel)一样使用向量来表示词(terms)和文档(documents),并通过向量
刺猬的温驯
·
2015-12-11 23:00
使用LFM(
Latent
factor model)隐语义模型进行Top-N推荐
最近在拜读项亮博士的《推荐系统实践》,系统的学习一下推荐系统的相关知识。今天学习了其中的隐语义模型在Top-N推荐中的应用,在此做一个总结。隐语义模型LFM和LSI,LDA,TopicModel其实都属于隐含语义分析技术,是一类概念,他们在本质上是相通的,都是找出潜在的主题或分类。这些技术一开始都是在文本挖掘领域中提出来的,近些年它们也被不断应用到其他领域中,并得到了不错的应用效果。比如,在推荐系
·
2015-12-09 10:13
Model
Machine Learning in Action(5) SVM算法
他的理论很优美,各种变种改进版本也很多,比如
latent
-SVM, structural-SVM等。这节先来看看SVM的理论吧,在(图一)中A图表示有两类的数据集,图B,
·
2015-11-13 20:07
learning
machine
ML| EM
Typically these models involve
latent
vari
·
2015-11-13 13:18
em
plda - A parallel C++ implementation of fast Gibbs sampling of
Latent
Dirichlet Allocation - Google Project
plda - A parallel C++ implementation of fast Gibbs sampling of
Latent
Dirichlet Allocation - Google Project
·
2015-11-13 12:29
location
word2vec并行实现小记
与潜在语义分析(
Latent
Semantic Index, LSI)、潜在狄立克雷分配(
Latent
Dirichlet Allocation)的经典过程相比,word2vec利用了词的上下文,语义信息更加地丰富
·
2015-11-13 12:26
word
LDA-线性判别分析(一)
本来是要调研
Latent
Dirichlet Allocation 的那个 LDA 的, 没想到查到很多关于 Linear Discriminant Analysis 这个 LDA 的资料
·
2015-11-13 11:05
分析
LDA-线性判别分析(二)
本来是要调研
Latent
Dirichlet Allocation 的那个 LDA 的, 没想到查到很多关于 Linear Discriminant Analysis 这个 LDA 的资料。
·
2015-11-13 11:03
分析
LDA-线性判别分析(三)
本来是要调研
Latent
Dirichlet Allocation 的那个 LDA 的, 没想到查到很多关于 Linear Discriminant Analysis 这个 LDA 的资料。
·
2015-11-13 11:03
分析
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他