E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba分词器
头歌平台-人工智能技术应用-实践学习与答案
人工智能技术应用基于
Jieba
的中文分词实战第1关:中文分词工具——
Jieba
第2关:基于
Jieba
的词频统计词性标注第1关:词性标注命名实体识别第1关:命名实体识别第2关:中文人名识别第3关:地名识别
AlbertOS
·
2022-11-22 21:12
python
人工智能
学习
搜索引擎
python-新闻文本分类详细案例-(数据集见文末链接)
文章目录分析思路所用数据集一、导入相关包二、数据分析1.读取数据2.
jieba
分词并去除停用词3.TF-IDF4.网格搜索寻最优模型及最优参数5.预测并评估预测效果总结分析思路新闻文本数据包含四类新闻,
~阿秋~
·
2022-11-22 18:58
python
数据分析
机器学习
自然语言处理
TF-IDF算法(原理+python代码实现)
2.3TF-IDF(TermFrequency-InverseDocumentFrequency)三、TF-IDF应用四、代码实现4.1常规Python实现TF-IDF4.2NLTK实现TF-IDF4.3
Jieba
Dr.sky_
·
2022-11-22 17:44
NLP
算法
自然语言处理
人工智能
nlp
python
时域卷积网络(Temporal Convolutional Network,TCN)
TCN基本结构时域卷积网络(TemporalConvolutionalNetwork,TCN)由Shao
jieBa
ietal.在2018年提出的,可以用于时序数据处理,详细内容请看论文。
z2014z
·
2022-11-22 13:03
深度学习
时间卷积网络TCN:CNN也可以处理时序数据并且比LSTM更好
本文回顾了Shao
jieBa
i、J.ZicoKolter和VladlenKoltun撰写的论文:AnEmpiricalEvaluationofGenericConvolutionalandRecurrentNetworksforSequenceModeling
酒酿小圆子~
·
2022-11-22 13:56
机器学习
&
深度学习
lstm
cnn
网络
数据挖掘实战(6)——机器学习实现文本分类(今日头条tnews数据集)
文章目录1数据准备2数据预处理3交叉验证&特征提取4模型训练5评估与总结1数据准备数据集格式:importnumpyasnpimportpandasaspdimporttimeimport
jieba
importreimportstringimportpicklefromtqdmimporttqdmfromzhon.hanziimportpunctuationfromcollectionsimpor
热爱旅行的小李同学
·
2022-11-22 00:04
#
数据挖掘
人工智能
数据挖掘
分类
python
自然语言处理
机器学习
Cannot uninstall ‘PyYAML‘.【安装transformers失败解决方法】
pipinstalltransformersfromtransformersimportAutoTokenizer#使用预训练模型bert-base-uncased,模型内容详见https://huggingface.co/bert-base-uncased#
分词器
rainbowiridescent
·
2022-11-21 21:03
python
深度学习
开发语言
机器学习
自然语言处理
NLP到Word2Vec实战-第一课
文章目录QANLTK一、概述1.定义2.安装NLTK3.安装语料库二、文本处理流程1.Tokenize——长句拆分成小部分2.中英文区别—中文没有空格(1)中文分词——
jieba
.cut()——一般要与
weixin_47082769
·
2022-11-21 18:49
自然语言处理
自然语言处理
word2vec
python
文本处理算法_关键词提取和文本摘要算法TextRank详解及实战
TextRank主要有关键词提取和文本摘要两个功能,在
Jieba
分词里也有集成,在介绍TextRank的原理之前,必
weixin_39640203
·
2022-11-21 14:44
文本处理算法
Pytorch 自学笔记(自用)
第三章nlp自学系列笔记文章目录第三章nlp自学系列笔记文本预处理基础方法一、
jieba
的使用二、中英文分词工具hanlp三.命名实体识别(NER)1.使用hanlp进行命名实体识别使用
jieba
进行中文词性标注四
warm_body
·
2022-11-21 13:50
python
ner
nlp
python
nlp
神经网络
jieba
分词安装,简单粗暴,保证成功
以前用condainstall
jieba
,一直报错,科学上网也不行。后来自己找到了一个简单粗暴原始的方法。第一步:打开
jieba
官网,
jieba
·PyPI,下载安装包,直接解压。得到这个文件夹,如下。
碧绿的麦穗雀
·
2022-11-21 09:27
python
自然语言处理
深度学习
中文分词
bilstm+crf中文分词_常用分词工具使用教程
jieba
(结巴分词)免费使用HanLP(汉语言处理包)免费使用SnowNLP(中文的类库)免费使用FoolNLTK(中文处理工具包)免费使用Jiagu(甲骨NLP)免费使用pyltp(哈工大语言云)商用需要付费
weixin_39639381
·
2022-11-21 08:56
bilstm+crf中文分词
TCN代码详解-Torch (误导纠正)
TCN代码详解-Torch(误导纠正)1.绪论TCN网络由Shao
jieBa
i,J.ZicoKolter,VladlenKoltun三人于2018提出。
Jimmysaid
·
2022-11-21 07:12
深度学习
深度学习
计算机视觉
人工智能
Python数据挖掘实例(实时更新)
中合作者挖掘(Python+Hadoop)URL:案例2【机器学习】机器学习综述与“HelloWorld”实战(附带5个实例)URL:案例3新闻分类系统(Python):爬虫(bs+rq)+数据处理(
jieba
_凝夏
·
2022-11-21 07:11
数据挖掘
python
hadoop
数据挖掘
python绘制词云图(内附背景图,简单项目易上手)
本项目前期用
jieba
分词然后用wordcloud绘制词云图环境python3.8使用IDE为pycharm文章目录1.需要导入的包2.
jieba
分词生成词频字典3.绘制词云图1.需要导入的包importnumpyasnpfromPILimportImagefrommatplotlibimportpyplotaspltfromwordcloudimportWordCloudimportpandas
π225
·
2022-11-21 03:49
python
中文分词
自然语言处理
数据分析
Python安装
jieba
库教程
安装
jieba
库教程
jieba
库是一款优秀的Python第三方中文分词库,
jieba
支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。
你隔壁的小王
·
2022-11-21 03:57
自然语言处理
人工智能
nlp
数据库
python
Python的自然语言处理,情感分析
Python的自然语言处理,情感分析一.
Jieba
实现词性标注二.基于TextRank算法的关键词提取三.python情感分析库:TextBlobTextBlob是一个自然语言处理的python库。
hence..
·
2022-11-20 19:01
python
python
自然语言处理
开发语言
Python机器学习——分析评论情感
一、实验目标1、将文件评论分为积极评论和消极评论两类,其中消极评论包括答非所问,省略回答与拒绝回答(本文中我暂且规定积极评论为0,消极评论为1)二、实验思路1、用
jieba
库,去除停用词等操作处理原始数据
Josepyth
·
2022-11-20 18:53
python
开发语言
大数据
算法
conda
LDA主题提取+可视化分析(PyLDAavis)
1、LDA主题提取——分词importreimport
jieba
asjbimportgensimfromgensimimportmodelsimportpyLDAvis
py学习小白
·
2022-11-20 17:13
笔记
pytorch
深度学习
python
数据分析
数据挖掘
TCN代码详解-Torch (误导纠正)
1.绪论TCN网络由Shao
jieBa
i,J.ZicoKolter,VladlenKoltun三人于2018提出。对于序列预测而言,通常考虑循环神经网络结构,例如RNN、LSTM、GRU等。
jh035512
·
2022-11-20 11:17
深度学习
神经网络
基于共现发现人物关系的python实现+gephi人物关系网+tableau词云
#这个是标准语法,可以得到人物和人物出现的次数,《盛华》人物太多,且
jieba
.load_userdict在我这里没有反应,我
君心似砂
·
2022-11-20 09:20
python
python
python红楼梦人物统计_Python分析红楼梦,宝玉和十二钗的人物关系
出场率由于我们只统计宝玉和十二钗(正册)这些人物,因此我们需要实现准备一个人物名单:这个后面的nr是表示人物属性,方便分词工具
jieba
识别。
weixin_39820158
·
2022-11-20 09:19
python红楼梦人物统计
python分析人物关系_用Python分析《都挺好》中的人物关系
使用的库主要有
jieba
、gensim。一、文本准备从网上下载《都挺好》小说txt。打开查看如下所示:可以看出,文本中有分段以及大量的换行符,所以在读取文本时需要先去除这些符号。
weixin_39866974
·
2022-11-20 09:19
python分析人物关系
python 小说人物分析_用python分析小说人物关系(二)——实战篇
用到的工具
jieba
jieba
分词,最好用的开源中文分词工具。他最主要的两个功能是分词和关键词的抽取。在这里我们需要用他的分词功能来提取文本中的人名。
weixin_39582480
·
2022-11-20 09:48
python
小说人物分析
gephi生成网络关系图_用python分析小说人物关系(一)——理论篇
1、工具介绍
jieba
jieba
分词,最好用的开源中文分词工具。他最主要的两个功能是分词和关键词的抽取。在这里,我们需要用他的分词功能来提取文本中的人名。
weixin_39552472
·
2022-11-20 09:18
gephi生成网络关系图
python随机抽取人名
社会语义网络图用什么软件绘制
python分析 【都挺好】小说任务关系
/usr/bin/envpython3import
jieba
.analysefrompyecharts.chartsimportFunnelimportgensimimportloggingimportrei
sunnyboy_4
·
2022-11-20 09:03
Python机器学习
python
开发语言
gensim生成词向量并获取词向量矩阵
1.导入相关包主要用到了
jieba
和gensim包,可以使用命令行pip3ins
蛋王派
·
2022-11-20 02:48
NLP
python
人工智能
如何在vscode中下载python第三方库(
jieba
和wordcloud为例)
本文由来本来我并不想写文章的,但是我发现,对于一个0基础的小白vscode用户而言,想完整的下载一个第三方库还是存在一定的问题,并且我在搜索文章的时候发现,完全没有小白教程,太难了,所以说我就写了这篇博客,仅供使用vscode的小白选手安装python的第三方库vscode配置python配置:没有下载python,直接使用的是Anaconda中的python已经下载过vscode中自带的插件1、
Bessie_Lee
·
2022-11-19 20:23
软件使用操作
vscode
python
jieba
NLP实战:朴素贝叶斯分类器
在sklearn中将语句转为向量有两种方式词袋模型(词的频数)和TF-IDF特征向量import
jieba
fromsklearn.feature_extraction.textimportCountVectorizer
_朝闻道_
·
2022-11-19 16:40
自然语言处理
利用python分析电商_基于Word2Vec+SVM对电商的评论数据进行情感分析
Word2Vec-sentiment基于Word2Vec+SVM对电商的评论数据进行情感分析首先是利用word2vec对正负评论数据进行词向量训练,然后利用SVM分类器对语料进行分类,具体的过程如下:第一步:加载数据、进行
jieba
weixin_39890452
·
2022-11-19 12:02
利用python分析电商
使用SVM+Word2Vec 解决外卖的好评坏评分类问题
0.声明本文是作者,总结学到的知识,使用Sklearn,gensim,
jieba
等,完成分类实验。若有错误,欢迎指正。
Jun-ho Chae
·
2022-11-19 12:45
机器学习
Python
python
svm
中文分词
基础11·
jieba
库下的词频统计(
jieba
库精确模式,删除多个指定字符串)
参考点
jieba
库精确模式,删除多个指定字符串import
jieba
txt=open("C://Users/Administrator/Desktop/"+"三国演义(前四回).txt","r").read
楼上little黑
·
2022-11-19 10:08
基础编程
jieba库下词频统计
jieba
分词中的特殊字符处理
最近在做
jieba
分词的时候出现一个有意思的问题往词库里面加了TD-523这个词然后拆分的时候拆成了TD523怀疑是-影响的然后在词库中修改为TD523正确分出来TD523但是如果非要拆分出来TD-523
苍狗白云一瞬间
·
2022-11-19 10:05
python
jieba
特殊字符
jieba
分词,并去除所有标点
#encoding=utf-8import
jieba
importreclassScan(object):def__init__(self,path):self.path=pathdefscan(self
iuhiyuh
·
2022-11-19 10:01
python
文本处理
如何高效剔除
jieba
分词中的标点符号和其他特殊字符
如果使用
jieba
分词的,那么这两种‘符号’都会混杂在我们的结果中。常用词可以使用停用词字典。
Hello! The world。
·
2022-11-19 10:31
原创_感言
python27使用
jieba
分词,去除停用词
#-*-coding:utf-8-*-import
jieba
import
jieba
.analyseimportsysimportcodecsreload(sys)sys.setdefaultencoding
Yan456jie
·
2022-11-19 10:59
NLP
jieba
分词时替换多种中文(英文)符号的方法
import
jieba
d={}withopen("sgld.txt","r",encoding="utf-8")asf:lssgld=f.readlines()forwordinlssgld:word=
Triumph19
·
2022-11-19 10:58
python二级考题
python
【Java】
jieba
分词对象
结巴分词(java版)
jieba
-analysis引言首先感谢
jieba
分词原作者fxsjy,没有他的无私贡献,我们也不会结识到结巴分词.同时也感谢
jieba
分词java版本的实现团队huaban,他们的努力使得
19Java菜鸟
·
2022-11-19 10:27
Java
IDEA
大数据
java
大数据
spring
Python手动安装
Jieba
库(Win11)
在Python中可以使用
jieba
库来进行中文分词。本文介绍手动安装
jieba
库到anaconda3和python3.11的方法。
Alexabc3000
·
2022-11-19 09:56
python
jieba库
中文分词
Python使用
jieba
库分词并去除标点符号
在Python中可以使用
jieba
库来进行中文分词。
Alexabc3000
·
2022-11-19 09:24
python
jieba库
Anaconda3
python朴素贝叶斯的文本分类_基于Python 朴素贝叶斯--文本分类
步骤:准备分类文档内容和分类标签,停用词文档利用
Jieba
(中文)/NTLK(英文)将文档中单词分词加载停用词文件,生成TFIDF向量,计算单词的TFIDF,(TF:词频,IDF:逆向文档频率=(文档数
hai xiao
·
2022-11-19 09:48
安装
jieba
库时pycharm报错并cmd中pip报错
pip安装时报错使用国内镜像源就可以解决url的来源的问题,换成了国内的pip源就可以正常安装了pipinstall
jieba
-ihttp://pypi.douban.com/simple--trusted-hostpypi.douban.com1
彤小彤_tong
·
2022-11-19 09:38
python
初学NLPday1笔记部分
2.了解两个最常见的语料库:nltk(英文语料库,具有分类,分词多种功能)
jieba
(中文语料库,这个库是github开源并且在不断更新的一个语料库,随着网络语言的发展,词汇与语料不断增多)3.一条文本的处理流程
WJY991202
·
2022-11-19 08:04
人工智能
深度学习
自然语言处理
python
基于Word2vec加TextRank算法生成中文新闻摘要(附python代码)
https://blog.csdn.net/qq_36910634/article/details/97764251importnumpyasnpimportpandasaspdimportre,os,
jieba
fromitertoolsimportchain
Gabriel_wei
·
2022-11-19 07:13
python
人工智能
nlp
NLP项目实战—京东健康智能分诊文本分类项目
、项目框架三、文本预处理与特征工程1.文本预处理2.特征工程2.1基于词向量的特征工程2.2基于人工定义的特征四、三个任务1.project12.project23.project3项目环境配置如下:
jieba
0.42.1lightgbm3.2.1scikit-learn0.24.2scikit-multilearn0.2.0gensim3.8.3
哎呦-_-不错
·
2022-11-19 04:13
#
nlp项目
NLP学习
NLP
文本分类
项目
Python文本词频统计(对三国演义进行人物出场频率的统计)
jieba
:优秀的中文分词第三方库ThreeKingdoms.txt(三国演义.txt):https://python123.io/resources/pye/threekingdoms.txt代码1:
一只水熊虫
·
2022-11-19 01:33
Python
python
词性
获取相关词性的词import
jieba
.possegaspsegn_e=["nr","n","ns","nt","nz"]r=[]forginpseg.lcut(text):ifg.flaginn_e:
baihaisheng
·
2022-11-17 20:05
NLP
自然语言处理
神经网络
深度学习
数据挖掘
余弦相似度-python实现
-一二三冲鸭的文章-知乎https://zhuanlan.zhihu.com/p/43396514"""importmathfromtypingimportList,Dict,AnyStrimport
jieba
defseparate
爆炒八酱
·
2022-11-17 17:48
python
ElasticSearch之分词及原理
文章目录1.无分词情况1.1查看ES所有索引1.2默认创建ES索引1.3向ES添加数据1.4查询数据1.5拼音查询无效果2.ES分词2.1ES
分词器
安装2.2创建分词索引2.3插入数据2.4查询所有数据
止步前行
·
2022-11-16 08:54
ElasticSearch
elasticsearch
搜索引擎
分词
拼音分词
Nodejs 中文分词
——车尔尼雪夫斯基)ㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤㅤ中文
分词器
引用百度的说明~~中文分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。
多比熊
·
2022-11-16 08:21
nodejieba
node-segment
node
结巴分词
结巴分词
NLP
Java
Python
cpp
盘古分词
字典
盘古分词字典
词库
分词
中文词库
分词词库
词库
中文分词
分词txt
上一页
35
36
37
38
39
40
41
42
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他