E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba
python pytorch实现RNN,LSTM,GRU,文本情感分类
先对句子进行分词并构建词表2.生成word2id3.构建模型4.训练模型5.测试模型代码如下:importpandasaspdimporttorchimportmatplotlib.pyplotaspltimport
jieba
importnumpyasnp
Mr Gao
·
2023-12-01 06:27
人工智能
python
自然语言处理
python
rnn
pytorch
python实验3 石头剪刀布游戏
运用
jieba
库进行中文分词并进行文本词频统计。二、知识要点图三、实验1.石头剪刀布实验题目利用列表实现石头剪刀布游戏。请补全程序并提交。请思考:winList使用元组实现可以吗?童鞋
七百~~~汪汪汪
·
2023-12-01 00:17
python
实验
python
开发语言
python
jieba
分词_Python入门:
jieba
库的使用
jieba
库是一款优秀的Python第三方中文分词库,
jieba
支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。
weixin_39996141
·
2023-11-30 17:37
python
jieba分词
python之
jieba
分词库
一、
jieba
库基本介绍(1)、
jieba
库概述
jieba
是优秀的中文分词第三方库-中文文本需要通过分词获得单个的词语-
jieba
是优秀的中文分词第三方库,需要额外安装-
jieba
库提供三种分词模式,最简单只需掌握一个函数
月疯
·
2023-11-30 17:03
【python库】
python3:
jieba
(“结巴”中文分词库) .2023-11-28
1.安装
jieba
库(Windows系统)打开cmd.exe(命令提示符),输入下面内容后回车,完成
jieba
库安装pipinstall-ihttps://mirrors.bfsu.edu.cn/pypi
mklpo147
·
2023-11-30 17:31
#
练习
python
文本情感分类
传统模型——基于情感词典输入句子,预处理文本分词训练情感词典(积极消极词汇、否定词、程度副词等)判断规则(算法模型)情感分类文本预处理使用正则表达式,过滤掉我们不需要的信息(如Html标签等)句子自动分词
jieba
dreampai
·
2023-11-30 06:13
【python】词频统计
importreimport
jieba
importwordcloudimportnumpyasnpfromPILimportImageimportmatplotlib.pyplotaspltwithopen
ZQAW
·
2023-11-29 22:03
python
python
开发语言
【Python】
jieba
分词基础
jieba
分词主要有3种模式:1、精确模式:
jieba
.cut(文本,cut_all=False)2、全模式:
jieba
.cut(文本,cut_all=True)3、搜索引擎模式:
jieba
.cut_for_search
zhangbin_237
·
2023-11-29 22:43
python
开发语言
数据可视化
中文分词
[nlp] tokenizer
词粒度的切分就跟人类平时理解文本原理一样,可以用一些工具来完成,例如英文的NLTK、SpaCy,中文的
jieba
、HanLP等。词粒度Toke
心心喵
·
2023-11-29 09:45
nlp
自然语言处理
人工智能
麻烦看下这个表格宏命令如何修复?
image.png二、实现过程这里【哎呦喂是豆子~】、【巭孬】给了一个思路,
jieba
分词-强大的Python中文分词。image.png原来是分类。。。image.png顺利地解决了粉丝的问题。
皮皮_f075
·
2023-11-29 01:57
测试C#分词工具
jieba
.NET
jieba
.NET是
jieba
中文分词的C#版本,后者是优秀的Python中文分词组件GitHub中得到超过3万星。
gc_2299
·
2023-11-28 04:05
dotnet编程
c#
分词
jieba.NET
数据可视化词云
自选一部小说(txt格式)参照PPT绘制小说的高频词云+社交网络图《帝皇书》词云import
jieba
importwordcloudimportnetworkxasnximportmatplotlib.pyplotaspltimportmatplotlibdefgetText
想不到名字222
·
2023-11-27 11:48
python
其他
计算机二级Python基本操作题-序号43
#键盘输入一句话,用
jieba
分词后,将切分的词组按照在原话中逆序输出到屏幕上,词组中间没有空格。
—Miss. Z—
·
2023-11-25 12:27
python
算法
Python+
jieba
+wordcloud实现文本分词、词频统计、条形图绘制及不同主题的词云图绘制
使用到的主要第三方库:
jieba
-0.42.1,wordcloud-1.8.2.2,matplotlib-3.5.1。
Ryo_Yuki
·
2023-11-24 20:17
Python
python
词频统计
词云绘制
批量处理docx文档,统计关键词出现频率并重命名word文档
批量处理docx文档,统计关键词出现频率并重命名word文档import
jieba
importosfromdocximportDocumentword批处理word重命名
jieba
分词同义词替换keywords
大豆燃豆萁
·
2023-11-24 18:35
文档相似度之词条相似度word2vec、及基于词袋模型计算sklearn实现和gensim
文档相似度之词条相似度word2vec、及基于词袋模型计算sklearn实现和gensim示例代码:import
jieba
importpandasaspdfromgensim.models.word2vecimportWord2Vecfromgensimimportcorpora
IT之一小佬
·
2023-11-24 06:35
文本挖掘/NLP
自然语言处理
nlp
python
深度学习
机器学习
[python] 使用scikit-learn工具计算文本TF-IDF值(转载学习)
相关文章如下:[python爬虫]Selenium获取百度百科旅游景点的InfoBox消息盒Python简单实现基于VSM的余弦相似度计算基于VSM的命名实体识别、歧义消解和指代消解[python]使用
Jieba
彩虹下的天桥
·
2023-11-24 06:29
study
python
sklearn
text
classify
python 中文切词并计算相似度
date2016/11/08importosos.chdir(u"G:\project")importMySQLdbimportpandasaspdimportreimportcodecsimport
jieba
import
jieba
.analyseimportloggingfromgensimimportcorpora
hm11290219
·
2023-11-24 06:55
Python
python
jieba
词性标注
Ag形语素形容词性语素。形容词代码为a,语素代码g前面置以A。a形容词取英语形容词adjective的第1个字母。ad副形词直接作状语的形容词。形容词代码a和副词代码d并在一起。an名形词具有名词功能的形容词。形容词代码a和名词代码n并在一起。b区别词取汉字“别”的声母。c连词取英语连词conjunction的第1个字母。Dg副语素副词性语素。副词代码为d,语素代码g前面置以D。d副词取adver
wgyang_gz
·
2023-11-23 02:02
基于Python(Pandas+Pyecharts)实现全国热门旅游景点数据可视化【500010037】
导入模块import
jieba
importpandasaspdfromcollectionsimportCounterfrompyecharts.chartsimportLine,Pie,Scatter
神仙别闹
·
2023-11-22 13:38
Python
教程
信息可视化
python
pandas
pycharm控制台的乱码问题
import
jieba
之后,总是乱码。试了好久,最后这个办法好用:设置——编辑器——常规——控制台右边的“默认编码”更改为“UTF-8”,解决!希望对大家有所帮助。
pqyy16z
·
2023-11-22 07:28
python
NLP常用工具包实战 (5)
jieba
中文分词器:全模式/精确模式切分词、添加自定义词典、关键词抽取、词性标注、wordcloud词云展示
1全模式/精确模式切分词import
jieba
import
jieba
.analyseimport
jieba
.possegaspsegseg_list=
jieba
.cut("我来到北京清华大学",cut_all
太阳不热
·
2023-11-22 07:48
数据可视化
nlp
自然语言处理
jieba
jieba分词
Jieba
库——中文自然语言处理的利器
为了解决这些问题,Python开发者开发了一系列用于处理中文文本的工具和库,其中最受欢迎和广泛应用的就是
Jieba
库。
非著名程序员阿强
·
2023-11-21 12:38
自然语言处理
人工智能
pyhive的离线安装及使用示例
pyhive离线安装pyhive下载离线安装包下载方式一:直接把
jieba
包下载到/download/pip/目录下pipdownload-d/download/pip/pyhive[hive_pure_sasl
enjoy编程
·
2023-11-21 08:28
程序员实用工具集合
大数据
python3学习
python
PyHive
离线安装
pandas
机器学习实践四:文本词频分析
一、文本词频统计import
jieba
#
jieba
中文分词库withopen('data/test.txt','r',encoding='UTF-8')asnovelFile:novel=novelFile.read
Tangefly
·
2023-11-21 03:11
机器学习
人工智能
12.28 (TFIDF,textrank法)找关键字
先来学习以下如何使用
jieba
包来提取中文文本关键字信息。
KK_f2d5
·
2023-11-21 01:54
我用Python把《白蛇2青蛇劫起》的评论做了数据可视化分析
imageimage.gif涉及到的库:Pandas—数据处理Pyecharts—数据可视化
jieba
—分词collections—数据统计可视化部分:折线图—Line柱状图—Bar饼状图
五包辣条
·
2023-11-20 22:50
三、机器学习基础知识:Python常用机器学习库(中文文本分析相关库)
文章目录1、
Jieba
库1.1主要函数1.2词性标注1.3关键词提取2、WordCloud库2.1常见参数2.2词云绘制文本分析是指对文本的表示及其特征的提取,它把从文本中提取出来的特征词进行量化来表示文本信息
七层楼的疯子
·
2023-11-20 18:29
机器学习(Python)
机器学习
人工智能
python
数据分析
数据挖掘
Python——wordcloud词云库
一、操作前的准备(下面代码均用JupyterNoteBook)wordcloud:快速生成词云图
jieba
:中文分词库fengmatplotlib:一个2D绘图库查询命令:pipshowwordcloudpipshow
jieba
pipshowmatplotlib
DamianVanilla
·
2023-11-20 09:47
python
开发语言
Hadoop自带WordCount进行词频统计(mapreduce)
Hadoop自带WordCount进行词频统计准备:安装好的Hadoop需要统计词频txt文件(用
jieba
分过词的链接:pycharm分词
jieba
结巴分词输出txt.step1启动Hadoopcd/
摸仙小蓝是人机
·
2023-11-19 16:57
wordcount
词频
hadoop
mapreduce
pkuseg,LTP,
jieba
分词实践
pkusegpkuseg具有如下几个特点:多领域分词。不同于以往的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。我们目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。在使用中,如果用户明确待分词的领域,可加载对应的模型进行分词。如果用户无法确定具体领域,推荐使用在混合领域上训练的通用
转身之后才不会
·
2023-11-18 23:27
深度学习
自然语言处理
jieba
pkuseg
pyltp
深度学习
FoolNLTK 及 HanLP使用
个人接触的分词器安装调用
jieba
“结巴”中文分词:做最好的Python中文分词组件https://github.com/fxsjy/
jieba
清华大学THULAC:一个高效的中文词法分析工具包https
水...琥珀
·
2023-11-18 23:26
python自然语言
python模块
中文NLP工具介绍
blog.csdn.net/KnightTen/article/details/89138602中文NLP工具总结KnightTen2019-04-0911:00:443419收藏10展开文章目录中文NLP工具总结1.
Jieba
jack_201316888
·
2023-11-18 23:26
NLP
python
jieba
库编程题_python库之
jieba
小试牛刀
1安装代码对Python2/3均兼容全自动安装:easy_install
jieba
或者pipinstall
jieba
/pip3install
jieba
半自动安装:先下载https://pypi.python.org
weixin_39747755
·
2023-11-16 14:40
pythonjieba库编程题
使用Python统计txt文件中的词频
#统计词频import
jieba
jieba
.load_userdict(r'\百度分词词库.txt')#载入用户自定义词典,使分词结果更准确stops_word_path=r'\stopwords_all.txt
Shy960418
·
2023-11-14 16:55
python
开发语言
自定义Graph Component:1.2-其它Tokenizer具体实现
前者包括
Jieba
Tokenizer、MitieTokenizer、SpacyTokenizer和WhitespaceTokenizer,后者包括BertTokenizer和AnotherWhitespaceTokenizer
NLP工程化
·
2023-11-14 07:19
Rasa实战
rasa
对话系统
Anaconda安装
jieba
库
一、在官网中下载
jieba
库压缩包https://pypi.org/project/
jieba
/#files二、将压缩包解压到Anaconda安装文件夹的pkgs文件夹下三、安装打开Ancondaprompt
宜城豆腐面
·
2023-11-14 04:58
windows
python -m rasa_nlu.train -c sample_configs/config_
jieba
_mitie_sklearn.json
[root@localhostRasa_NLU_Chi]#python-mrasa_nlu.train-csample_configs/config_
jieba
_mitie_sklearn.jsonBuildingprefixdictfromthedefaultdictionary
zhonglinxin_go
·
2023-11-12 18:25
【Python】20大报告生成词云
如下:Python生成词云-CSDN博客代码:import
jieba
importosimportwordcloudimportnumpyasnpfromPILimportImagefromdocximportDocument
吉吉王后King
·
2023-11-12 09:34
Python
python
开发语言
Rasa NLU 组件解析
Rasa组件pipeline文章目录Rasa组件pipeline**1.语言组件**MitieNLPSpacyNLP**2.分词器组件**WhitespaceTokenizer
Jieba
TokenizerMitieTokenizerSpacyTokenizerConveRTTokenizerLanguageModelTokenizer
思念可是反
·
2023-11-12 02:10
rasa框架
nlp
自然语言处理(NLP)入门(3)——文本预处理
文本预处理方法:文本处理的基本方法分词作用:为了更好的进行语言语义的理解(why)工具:
jieba
安装:pipinstalljieb
jieba
特性:多种分词模式精确模式(how)
jieba
.cut(content
程序汪赵可乐
·
2023-11-11 19:48
nlp
pytorch
python
人工智能
n-gram语言模型——文本生成源码
这篇博客中将探讨如何利用n-gram模型,特别是在处理中文文本时,使用
jieba
进行分词和nltk库进行模型构建。
征途黯然.
·
2023-11-11 18:35
自然语言处理
语言模型
人工智能
自然语言处理
文本生成
2021年09月 Python(四级)真题解析#中国电子学会#全国青少年软件编程等级考试
A:pipinstallScipyB:pipuninstall
Jieba
C:pipclear
码农StayUp
·
2023-11-10 05:36
python
开发语言
等级考试
电子学会
利用目前的三个分词工具(
jieba
、snownlp、pynlpir)简单的实现了短文本的分词效果
partone利用
jieba
分词结果为:parttwo利用snownlp分词结果为:partone利用pynlpir分词代码如下:测试结果如下:在运行过程中遇到了pynlpir授权过期的问题,即报错为:
Jasminexjf
·
2023-11-09 22:52
分词
【自然语言处理】基于python的问答系统实现
答案文件:北京市26度135公里在上课二,实现原理(1)导入模块import
jieba
import
TUSTer_
·
2023-11-09 20:36
自然语言处理
人工智能
基于python实现ocr文字识别
注册百度云账号并创建相关实例得到三个字段的相关数据,后面代码中需要(跳转链接)项目结构主要实现代码#-*-coding:UTF-8-*-fromaipimportAipOcrimportcsvimport
jieba
import
jieba
.analyseasa
old-handsome
·
2023-11-09 19:18
python爬虫
python
百度云
开发语言
ERROR: Could not find a version that satisfies the requirement PIL (from versions: none)解决方法
我这边问题的原因是版本问题问题描述pipinstallwordcloudmatplotlib
jieba
PIL首先查看python的版本命令行方式安装先安装pillow不要装PIL错误的尝试不过学会了很多终端命令新建
旅僧
·
2023-11-05 12:54
#
计算机小常识/环境配置
java
pySpark ModuleNotFoundError: No module named ‘XXX‘
今天出现了一个很奇怪的问题,命名已经安装了
jieba
分词库了,但是无论是pycharm还是jupyter都无法找到,后来经过和同事的不断尝试发现了一个解决方案:在代码的开始部分添加相应的环境变脸并将指定的变量指向这个变量
Han_Lin_
·
2023-11-05 03:21
pyspark
Spark
spark
大数据
python
python词云图片生成不出来_python生成词云方法教程
所要用到的python库有
jieba
(一个中文分词库)、wordcould、matplotlib、PIL、numpy。首先我们要做的是读取歌词
weixin_39851974
·
2023-11-04 08:08
python词云图片生成不出来
python词云(二):中文词云介绍及其存在的问题
这里主要介绍一下基于Python生成中文词云,学习只要是通过网上的博客,及python中文分词库
jieba
:博客:http://blog.csdn.net/fontthrone/article/details
weixin_34367845
·
2023-11-04 08:07
python
数据结构与算法
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他