E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Glove词向量
机器学习-分类算法实战-使用朴素贝叶斯分类器过滤垃圾邮件
充分利用Python的文本处理能力将文档拆分为
词向量
。这将用于对文本进行分类。
LyShay
·
2022-11-30 01:29
机器学习
[机器学习实战]--朴素贝叶斯过滤垃圾邮件
我们将充分利用python的文本处理能力将文档切分成
词向量
,然后利用
词向量
对文档进行分类。还将构造分类器观察其在真实的垃圾邮件数据集中的过滤效果。
chenshengta6990
·
2022-11-30 00:51
机器学习——朴素贝叶斯算法
目录一、朴素贝叶斯理论1.1基于贝叶斯决策理论的分类方法1.2条件概率编辑1.3全概率公式编辑1.4朴素贝叶斯分类器二、贝叶斯分类器简单应用三、使用朴素贝叶斯进行文档分类3.1准备数据:从文本中构建
词向量
装进了牛奶箱中
·
2022-11-29 19:37
机器学习
算法
人工智能
机器学习(四)朴素贝叶斯算法
贝叶斯定理有什么用1.2贝叶斯公式2.朴素贝叶斯分类器2.1朴素贝叶斯公式2.2拉普拉斯修正2.3防溢出策略3.朴素贝叶斯算法实例-过滤垃圾邮件3.1问题分析3.2代码实现3.2.1准备数据3.2.2训练算法:从
词向量
计算概率
Ag11
·
2022-11-29 18:45
算法
人工智能
torch.nn.embedding()大致使用方法
碰到了这个东西,有点不太清楚,在这里记下笔记将nn.embedding理解为学习一个
词向量
的表示,每一个词都会对应一个指定维度的单独的向量表示(embed_dim在GRU等模型的输入中,可以认为是input_size
chaiiiiiiiiiiiiiiiii
·
2022-11-29 17:24
python代码有关
其他
神经网络
python
深度学习
11月28日九十节作业(自然语言处理-
词向量
)学习总结
一、
词向量
是表示自然语言里单词的一种方法,是自然语言处理的重要基础和前提二、把词转化为向量:EmbeddingLookup:用一个特定的表格(也可以用词典的数据结构,但对计算效率有影响)来储存特定词语的向量
Together.733
·
2022-11-29 13:57
作业
自然语言处理
学习
NLP面试常考题(以前面试被问得题,答案为个人理解,仅供参考)
面试常考题(答案为个人理解,仅供参考)1:
词向量
是什么,有哪些方式生成
词向量
,句子的
词向量
是什么?
那年夏天那缕光
·
2022-11-29 11:56
面试常见题
自然语言处理
NLP深入学习——什么是
词向量
和句向量(Word Embedding and Sentence Embedding)
文章目录返回主目录
词向量
(WordEmbedding)句向量(SentenceEmbedding)①Averging法则②LSTM/RNN返回主目录这是一个系列的文章,点击返回综合目录页
词向量
(WordEmbedding
superbfiy
·
2022-11-29 10:34
NLP
自然语言处理
机器学习
nlp
词向量
训练实战——Word2vector、
Glove
、Doc2vector
目录一、基于gensim(版本:3.8.3)的Word2vector1、模型训练2、模型使用:获取词、
词向量
、词之间
词向量
比较等3、word2vector的保存和加载2、
Glove
3、补充句向量:Doc2Vec
lucky_chaichai
·
2022-11-29 10:30
Python类
word2vec
机器学习
自然语言处理
python
自然语言处理(
词向量
——Word Embedding)总结
目录一、什么是
词向量
1.1离散表示(one-hotrepresentation)1.2分布式表示(distributionrepresentation)二、如何生成
词向量
三、如何让向量具有语义信息四、CBOW
spiritqi
·
2022-11-29 10:19
自然语言处理
人工智能
PaddlePaddle自然语言处理总结
11月28日week14周一910节物联2012008070101本文总结:1.介绍
词向量
引入对自然语言处理有着至关重要的作用;2.介绍了word2vec算法;3.介绍CBOW算法的实现;4.介绍Skip-Gram
睡觉特早头发特多
·
2022-11-29 07:29
深度学习
paddlepaddle
自然语言处理
人工智能
自然语言处理学习总结
1、将语义信息转化为向量2、使用一个单词的上下文来了解这个单词的语义(word2vec算法)CBOW:在学习过程中,使用上下文的
词向量
推理中心词,这样中心词的语义就被传递到上下文的
词向量
中,如“Spiked
m0_51230343
·
2022-11-29 07:58
自然语言处理
学习
人工智能
文本表征 Text Representation
基于one-hot、tf-idf、textrank等的bag-of-words;主题模型:LSA(SVD)、pLSA、LDA;基于
词向量
的固定表征:Word2vec、FastText、
GloVe
基于
词向量
的动态表征
jzwei023
·
2022-11-29 06:16
NLP
深度学习
自然语言处理
利用Word2Vec在语料中构建种子词集同类词
步骤:1)对语料库建立word2vec
词向量
模型;2)利用gensim.model联动的词汇相似
Papaya沐
·
2022-11-28 18:43
nlp
word2vec
python
自然语言处理
词向量
实践(gensim)
词向量
训练步骤:分词并去停用词词频过滤训练项目完整地址:https://github.com/cyandn/practice/tree/master/Word2Vecgensim中Word2Vec参数解释
dazha4426
·
2022-11-28 18:38
人工智能
word2vec
词向量
文本分类实现(TensorFlow版,算法TextCNN)
之前也写过word2vec
词向量
文本分类实现,不过那是基于Keras。今天来写下tensoflow版的代码。再来感受下它的魅力。
总裁余(余登武)
·
2022-11-28 12:07
NLP
自然语言处理
自然语言处理
tensorflow
nlp
Python深度学习12——Keras实现注意力机制(self-attention)中文的文本情感分类(详细注释)
但是使用函数API也可以实现,Keras处理文本并且转化为
词向量
也很方便。本文使用了一个外卖评价的数据集,标签是0和1,1代表好评,0代表差评。
阡之尘埃
·
2022-11-28 08:44
Python深度学习
keras
python
神经网络
nlp
深度学习
准备NLP面试问题
文章目录word2vecglove你知道几种
词向量
的方法?你认为为什么BERT能达到这么好的效果?注意力机制你了解多少,或者说你了解哪几种?
kukufufu
·
2022-11-27 20:08
学习笔记
NLP
面试
word2vec 相关论文
原论文:Mikolov等人在2013年的文献[1]中,同时提出了CBOW(ContinuousBagof-Words)和Skip-gram模型.他们设计两个模型的主要目的是希望用更高效的方法获取
词向量
。
JackComeOn
·
2022-11-27 19:59
人工智能
Word2Vec原论文阅读
Word2Vec原论文阅读一、背景Word2Vec是自然语言处理、文本表示学习的典型模型,首次提出了CBOW、Skip-gram等目前仍在沿用的
词向量
学习思想,也是除了预训练模型生成
词向量
之外,最具有代表性的神经网络
词向量
模型
西南小游侠
·
2022-11-27 19:58
经典论文
word2vec
论文阅读
深度学习
Word2Vec
wordvector的核心思想:为每个单词构建一个密集向量,选择后的向量与出现在类似上下文中的单
词向量
相似。
在路上的工程师
·
2022-11-27 11:48
自然语言处理
word2vec
自然语言处理
TextCNN文本分类Pytorch
文章目录前言一、环境:二、数据:三、模型结构四、主要代码1.word2id与id2word2.word2vec3.加载word2vec五、训练及测试未使用预训练
词向量
使用预训练的
词向量
总结前言之前写了一篇
ToTensor
·
2022-11-27 10:16
NLP实战
pytorch
深度学习
python
文本分类:TextCNN(pytorch实现)
textcnn详细过程:第一层是图中最左边的7乘5的句子矩阵,每行是
词向量
,维度=5。
MCZ777
·
2022-11-27 10:13
自然语言处理
NLP学习笔记
pytorch
深度学习
自然语言处理
fastText学习——文本分类
之前主要有One-hot、BagofWords、N-gram、TF-IDF
词向量
表示方法,但它们存在不足:转换得到的向量维度很高,需要较长训练时间;没有考虑单词与单词之间的关系,只是进行了统计。
Quinn-ntmy
·
2022-11-27 08:03
NLP
深度学习
nlp
中文自然语言处理--基于fasttext中文短文本分类
FastText是facebook开源的一个
词向量
与文本分类工具,模型简单,训练速度非常快。
糯米君_
·
2022-11-27 07:54
中文自然语言处理
中文自然语言处理
fasttext
文本分类
文本张量的表示方法
概念:将一段文本使用张量进行表示,将词汇表示成向量,成为
词向量
,再由各个
词向量
按顺序组成矩阵形成文本表示。为什么?
IT之一小佬
·
2022-11-27 01:21
自然语言处理
机器学习
深度学习
自然语言处理
人工智能
深度学习-nlp系列(4):Word2Vec 字&
词向量
的训练和使用
前言word2vec是静态
词向量
构建方法的一种,与Embedding
词向量
相似。本文将介绍word2vec
词向量
是如何训练的,训练好的word2vec
词向量
如何使用。
牧子川
·
2022-11-26 08:53
pytorch
nlp
深度学习
深度学习
word2vec
python
Pytorch——BERT 预训练模型及文本分类(情感分类)
知识点语言模型和
词向量
BERT结构详解BERT文本分类BERT全称为BidirectionalEncoderRepresentationsfromTransformer,是谷歌在2018年10月发布的
ASS-ASH
·
2022-11-26 08:21
情感分析
python
人工智能
分类
bert
pytorch
关于
词向量
的一篇好的入门文章
很好,正好可借此机会介绍
词向量
、word2vec以及DeepNLP整套相关的东西:文章很长,是从CSDN上写好复制过来的,亦可直接跳到博客观看:深度学习(DeepLearning)·
rolin-刘瑞
·
2022-11-26 04:26
自然语言处理
word2vec
词向量
CBOW、Skip-gram理解
分布式
词向量
并不是word2vec的作者发明的,他只是提出了一种更快更好的方式来训练语言模型罢了。
不要关注我
·
2022-11-26 04:25
机器学习面试
词向量
模型W
词向量
模型Word2Vecord2Vec
前言本文是之前学习自然语言处理课程CS224课程的笔记。首发于公众号"NLP学习者"简介想要处理文本首先就要将单词表示成计算机可以处理的格式,表示的方法一般有两种,一种是one-hot编码,另一种是分布式表示,分布式表示涉及从单词个数维度的空间到具有更低维度的连续向量空间的数学嵌入。本篇博文介绍的word2vec就是一种分布式表示,word2Vec尝试去做的是利用语言的意义理论,根据一个单词来预测
loganzha
·
2022-11-26 04:24
自然语言处理
连续词袋模型(Continous bag of words, CBOW)
(Skip-gram是用中心词预测周围词)CBOW模型的结构最左边为上下文词,这些词用One-hot编码表示,维度为1*V(上图容易让人理解错误)每个上下文的
词向量
都需要乘以一个共享的矩阵W,由于整个模型是一个神经网络结构
Vicky_xiduoduo
·
2022-11-26 04:18
自然语言处理
人工智能
深度学习
word2vec
【NLP】一文理解Self-attention和Transformer
首先是词的表示,表示词的方式:One-hotEncoding(
词向量
很长,并且词之间相互独立)、WordEmbedding。然后是语音向量和图(Graph)也是由一堆向量组成。输出可能是什么样的?
Mr.zwX
·
2022-11-25 22:22
【NLP】自然语言处理
transformer
深度学习
自然语言处理
LSTM+Self-Attention情感分类
开发环境2、数据集二、使用torchtext处理数据集1、导入必要的库2、导入并查看数据集3、使用torchtext处理数据集3.1、定义Field3.2、创建Dataset3.3、构建词表、加载预训练
词向量
wisuky
·
2022-11-25 12:52
深度学习
情感分类
lstm
pytorch
深度学习
Kaggle 上数据集的分享(20类猿猴、电影评论、
glove
.6B.100D.txt、THUCNews、STL10(train_X.bin)等)
本文主要针对深度学习中Kaggle上的数据,因为在Kaggle网页下载会有很多的障碍。目前还在学习中,日后有更多需要的数据会继续更新。链接:https://pan.baidu.com/s/14oh5Q8RvvPCcE44pJUt_JQ提取码:plw3
Seldon_Lin
·
2022-11-25 11:24
python
【gensim问题记录】EOFError: unexpected end of input; is count incorrect or file otherwise damaged?
参考博客报错信息:打开
词向量
文件viglove.840B.300d.word2vec.txt
词向量
文件中的第一行是两个数字,第一个表示此文件中共有词多少;第二个是
词向量
的维度输入crtl+end,跳转到最后一行
又又酸又菜又多余
·
2022-11-25 09:02
问题记录
python
机器学习相关学习视频
“人工智能神经网络架构卷积神经网络原理递归神经网络与
词向量
原理解读”https://pan.baidu.com/s/1Y1BQuRjOelX3rAbwql38kA提取码:upjo神经网络、深度学习"链接
halouaaaa
·
2022-11-25 08:05
学习资料分享
机器学习
计算机视觉
python3.8+tensorflow2.4.0+keras-2.4.3: IMDB电影评论情感分析
Embedding层相当于一个字典,负责将词索引映射到固定尺寸的稠密
词向量
。它接受整数序列作为
wdw_kai
·
2022-11-25 05:34
python
NLP
python
深度学习
电信保温杯笔记——《统计学习方法(第二版)——李航》第17章 潜在语义分析
电信保温杯笔记——《统计学习方法(第二版)——李航》第17章潜在语义分析论文介绍单
词向量
空间话题向量空间话题向量空间文本在话题向量空间的表示从单
词向量
空间到话题向量空间的线性变换潜在语义分析算法矩阵奇异值分解算法步骤
电信保温杯
·
2022-11-25 02:38
机器学习
学习
算法
python
《深入浅出图神经网络》读书笔记(4.表示学习)
离散表示与分布式表示4.1.3端到端学习4.2基于重构损失的方法——自编码器4.2.1自编码器4.2.2正则自编码器4.2.3变分自编码器4.3基于对比损失的方法—Word2vec4.3.1Skip-gram——
词向量
模型
ppgodcsy
·
2022-11-24 18:31
深入浅出图神经网络
学习
深度学习
图论
深入浅出Word2Vec原理解析
Word2Vec是用来生成
词向量
的工具,而
词向量
与语言模型有着密切的关系。因此,我们先来了解一些语言模型方面的知识。
风度78
·
2022-11-24 18:27
李宏毅2020机器学习深度学习(4) RNN循环神经网络 笔记+作业
2.作业描述3.数据预处理3.1数据描述3.2
词向量
化3.3半监督学习(Semi-SupervisedLearning)3.4数据格式4.完整代码4.1word2vec4.2utils.py4.3w2v.py4.4preprocess.py4.5data.py4.6
梆子井欢喜坨
·
2022-11-24 17:35
#
李宏毅深度学习2020
python
自然语言处理
深度学习
神经网络
pytorch
将一段文本映射到低纬向量空间
阶段2:深度模型阶段,此阶段方式较多,自从
glove
、word2vec等词粒度的表示出现后,在此基础有比较多的魔改,从对句子中的
词向量
简单平均、到有偏平均SIF[1],后来引入CNN、LSTM等模型利用双塔
zcypaicom
·
2022-11-24 15:17
深度学习
人工智能
skip-gram模型处理文本
目录理论基础代码总架构代码实战1.导入包2.从文件中提取停止词和训练文本3.建立词典以及生僻词用UNK代替4.为skipgram生成训练参数5.构建模型6.调用负采样,抽取管检测7.准确率8.输出
词向量
想要好好撸AI
·
2022-11-24 13:36
NLP自然语言处理
机器学习
深度学习
自然语言处理
Python3 处理文章文本,分词统计,文本检索,并制作词云
data文件夹中读取每一个text文件并分词用TextRank4Keyword类对文本进行分词并提取关键词,并将提取出的关键词写到output文件夹中的同名文件中读取output中的关键词文件,并建立
词向量
统计词频将统计出的词频写入到
AiFool
·
2022-11-24 11:17
自然语言处理
Python
自然语言处理
python
数据挖掘
【BERT】Transformer/BERT/Attention面试问题与答案
2.不考虑多头的原因,self-attention中
词向量
不乘QKV参数矩阵(WQ,WK,WVW_Q,W_K,W_VWQ,WK,WV),会有什么问题?
尊新必威
·
2022-11-24 10:11
算法面试笔试
自然语言处理
transformer
bert
面试
ELMO/BERT/Transformer笔记 (备用)
可以看一下B站的视频学习:(1)
词向量
与ELMO模型:https://www.bilibili.com/video/av89296151?
MachineLP
·
2022-11-24 10:11
elmo
bert
Transformer
特征抽取工具-Transformer-bert
词向量
:将词转换成向量表示。一个好的
词向量
应该有下面的几个特性:1:满足相似性,相关
Coding~Man
·
2022-11-24 10:07
深度学习和机器学习
transformer
bert
深度学习
02、PMI点互信息 & PPMI(Positive PMI)
基于点互信息的
词向量
表示方式恰好可以解决上述问题。PMI点互信息1.概念和公式点互信息(PointwiseMutualInformation,PMI)是信息轮中用来衡量两个事物之间的相关性的一个指标。
祥祥2020
·
2022-11-24 01:18
自然语言处理
#
01
文本表示
机器学习
数据挖掘
自然语言处理
深度学习:补充内容:自然语言处理(Tokenizer和pad_sequences)
在上篇文章中我们写到了用Tokenizer和pad_sequences)这两个模块对文本类型的数据进行处理后再进行Embedding层的输入,除了可以自己训练Embedding层外,还可以导入外部训练好的
词向量
龙寻天下
·
2022-11-23 20:57
深度学习
自然语言处理
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他