E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba
词云的生成
首先要安装wordcloud(用于生成词云),matplotlib(用于绘图),
jieba
(用于分词),PIL(用于连接图片,进行词云轮廓的选择)。
丘小羽
·
2024-01-05 07:35
深度学习
实现中文
jieba
分词
目录问题描述:代码实现:问题描述:使用中文分词库
jieba
从给定的文本中提取指定范围内的前后词语。特殊的,如果前面是‘的’即再向前取一位,这个可根据自己的实际需求做出更改。
薰珞婷紫小亭子
·
2024-01-04 18:27
程序
自然语言处理
python
关键词提取
node
jieba
关键词提取库本来想在centos上安装node
jieba
,奈何Centos7上面的gcc的动态库太老,一直没办法更新动态库。
. . . . .
·
2024-01-03 07:46
node.js
自然语言处理
三国演义人名统计及可视化
1.人名统计首先,三国演义.txt需要各位自行下载,然后我们需要导入
jieba
(结巴)库,在后续完成代码的过程中我们需要使用
jieba
来帮我们自动分词然后是对于一些不需要分词的词语我们需要剔除:1.单字成词的我们不需要
在远方的眺望
·
2024-01-02 11:53
生鸡蛋23大计の题
python
算法
python实现文本词频统计分析,计算距离重心和词云可视化
在这里插入图片描述import
jieba
importmathimportwordcloudimportmatplotlib.pyplotasplt#构建停用词列表defstopword(path1):file
Cache_wood
·
2024-01-02 08:54
jieba
库
jieba
库是的中文分词第三方库。中文文本需要通过分词获得单个的词语。安装:(cmd命令行)pipinstall
jieba
jieba
分词依靠中文词库。
cd4254818c94
·
2024-01-01 09:08
Python爬虫豆瓣网热门话题保存文本本地数据,并实现简单可视化。
前言今天给大家分享Python爬虫豆瓣网热门话题保存文本本地数据开发环境:windows10python3.6.4开发工具:pycharm库:requests、WordCloud、pandas、
jieba
千寻编程
·
2024-01-01 09:47
Python数据爬虫案例
python
爬虫
数据可视化
经验分享
【小沐学NLP】Python实现TF-IDF算法(nltk、sklearn、
jieba
)
文章目录1、简介1.1TF1.2IDF1.3TF-IDF2.1TF-IDF(sklearn)2.2TF-IDF(nltk)2.3TF-IDF(
Jieba
)2.4TF-IDF(python)结语1、简介TF-IDF
爱看书的小沐
·
2024-01-01 00:26
Python
AI
python
自然语言处理
tf-idf
jieba
nltk
sklearn
分词
【Python篇】python库讲解(wordcloud |
jieba
)
文章目录
jieba
库wordcloud库解释
jieba
库
jieba
库是一个流行的中文分词工具,它基于统计算法和词频字典,能够将连续的汉字序列切割成有意义的词语。
在下小吉.
·
2023-12-31 11:29
Python基础
python
开发语言
Python
jieba
库的使用方法
jieba
库是一个python的第三方词库,是用来中文分词的这个库是需要下载的,我们需要在命令行输入pipinstall
jieba
来下载pipinstall
jieba
需要找到python安装路径的Scripts
又蓝
·
2023-12-29 02:05
python
python
人工智能python 模块_python机器学习和人工智能,基础模块和环境搭建
本文搭建包括numpy、pandas、gensim、matplotlib、tensorflow、sklearn、
jieba
、NLTK常用机器学习库,打造一个基础和全面的机器学习环境。
weixin_39560064
·
2023-12-28 21:54
人工智能python
模块
Python项目实战:通过
jieba
分词统计招聘大数据帮你找工作.md
前言:一切不经过项目验证的代码都是耍流氓,今天我们就通过一个简单的招聘网站的数据归档(数据来源请参考我的上一篇文章)进行当前热门岗位的大数据分析,最后以wordcloud进行显示。帮你分析一名合格的Python从业者到底要掌握什么样的技能。当然,这篇文章说是大数据是有点严重夸张的,看官勿深纠。相关代码下载地址请见文末整理归档文件上一篇文章中,我们采集了拉勾网的岗位数据,保存到了代码目录的./dat
明哥玩编程
·
2023-12-28 11:41
WeNet语音识别分词制作词云图
在线体验,点击识别语音需要等待一会,文件太大缓存会报错—介绍本篇博客将介绍如何使用Streamlit、
jieba
、wenet和其他Python库,结合语音识别(WeNet)和词云生成,构建一个功能丰富的应用程序
陈增林
·
2023-12-28 11:00
语音识别
人工智能
python之红楼梦词频统计并生成图云
Hlm.pystop_words.txt红楼梦.txt(tips:txt文件已放在文章最后)废话不多说,直接上效果图和代码:效果图Hlm.py代码部分:importmatplotlib.pyplotaspltimport
jieba
importwordcloudimportmatplotlibmatplotlib.rcParams
秋澄orange
·
2023-12-27 20:37
python
python
list
python
jieba
load_userdict 不起效果
如果字典是加载成功,没有报错,可能是自定义的词典词频不够高:可以看下
jieba
自带的词典中的词频,将自定义词典中词频调大如word999999999999n。
qq_36120059
·
2023-12-27 12:55
python
python
Python语法知识的笔记
Python语法知识的笔记一、re.sub函数的用法作用:字符串替换字符,sub是单词substitute的缩写二、.strip()函数的用法作用:去除字符串两侧的空白字符(空格、制表符、换行符等)三、
jieba
.cut
LinlyZhai
·
2023-12-27 11:24
windows
数据库
服务器
Python生成圣诞节词云-代码案例剖析【第17篇—python圣诞节系列】
❄️Python制作圣诞树词云-中文展示效果代码#-*-coding:UTF-8-*-import
jieba
importrefromstylecloudimportgen_stylecloudfromPILimportImageimportnumpyasnpwitho
一见已难忘
·
2023-12-27 07:02
python
圣诞节
圣诞节词云
节日
圣诞树
圣诞节代码
【NLP】⚠️学不会打我! 半小时学会基本操作 1⚠️ 分词
半小时学会基本操作1⚠️分词概述分词器
jieba
安装精确分词全模式搜索引擎模式获取词性概述从今天开始我们将开启一段自然语言处理(NLP)的旅程.自然语言处理可以让来处理,理解,以及运用人类的语言,实现机器语言和人类语言之间的沟通桥梁
我是小白呀
·
2023-12-25 17:34
#
NLP
自然语言处理
深度学习
自然语言处理
机器学习
深度学习
今日无更新
现在梳理一下自己手里的锤子:转到Pytorch,使用AllenNLP了解Transformer、了解LSTM了解
jieba
等分词工具了解Gensim等NLP处理工具接下来要做的:基于Pytorch搞定LSTM
我的昵称违规了
·
2023-12-25 02:21
词云(附带操作实例)
一、主要目的:学会词云图的制作方法,要求熟悉
jieba
分词库的使用,会使用wordcloud绘图,以及了解.generate()和.fit_words()方法的区别。
xixixi77777
·
2023-12-23 14:12
大数据
python
数据分析
人工智能
Jieba
+collections中英文混合语言文章词频统计
Jieba
+collections中英文混合语言文章词频统计前言前几个星期写了“WordCount-词频统计-英语考级必备-超好用-开源-Python”想着只能统计英文有局限性,就想着把中文的加上。
ZehangZhu Studio
·
2023-12-22 18:26
Python高效办公
python
算法
pip
使用Gensim训练Word2vec模型
1、训练Gensim模型importgensim#gensim==4.3.2import
jieba
importreimportwarningsimportloggingwarnings.filterwarnings
Shy960418
·
2023-12-21 17:20
word2vec
人工智能
自然语言处理
pycharm或anaconda安装第三方库的办法
jieba
这个包也可以在清华镜像下载哇塞!我下载的是
jieba
.tar.gz的压
LinlyZhai
·
2023-12-20 13:11
pycharm
ide
python
Python爬虫实战-采集微博评论,看看大家都在讨论什么
嗨喽,大家好呀~这里是爱看美女的茜茜呐开发环境:python3.8:解释器pycharm:代码编辑器模块使用:requests:发送请求parsel:解析数据
jieba
pandasstylecloud如何安装
茜茜是帅哥
·
2023-12-20 09:27
python爬虫
python
爬虫
开发语言
pycharm
学习
jieba
-fenci 结巴分词与繁简体转换 segment
拓展阅读DFA算法详解为了便于大家学习,项目开源地址如下,欢迎fork+star鼓励一下老马~敏感词sensitive-word分词segment结巴分词请参考结巴分词原理。结巴分词的不足这里是针对如果使用繁简体转换,仅仅想使用分词。那么结巴分词会有哪些不足呢?HMM是一种面向未来的分词(预测),但是繁体是一种面向过去的(词组/字固定)看似非常有用的HMM,到了繁简体转换全部成为了鸡肋。词库较大。
老马啸西风
·
2023-12-20 08:50
nlp
word
开发语言
安全
github
开源
中文分词
nlp
jieba
-fenci 结巴分词之词性标注实现思路 speechTagging segment
拓展阅读DFA算法详解为了便于大家学习,项目开源地址如下,欢迎fork+star鼓励一下老马~敏感词sensitive-word分词segment词性标注词性标注的在分词之后进行标注,整体思路也不难:(1)如果一个词只有一种词性,那么直接固定即可。(2)如果一个词有多种词性,那么需要推断出最大概率的一种。这个其实有些类似分词的时候做的事情,分词的过程中也是存在多种选择,然后选择概率最大的一种(当然
老马啸西风
·
2023-12-20 08:50
nlp
word
开发语言
安全
github
nlp
中文分词
文本深度学习向量化——Word2Vec、Doc2Vec
1数据预处理首先,需要引入
jieba
库,并定义get_stopwords和preprocess两个函数。get_stopwords函数用于读取停用词表,preprocess函数用于分词并去除停用词。
ZT-Brillly
·
2023-12-20 04:44
深度学习
word2vec
python
人工智能
机器学习
nodejs使用node
jieba
Node
jieba
是一个基于Node.js平台的中文分词模块,用于将中文文本切分成有意义的词汇。
T3165919332
·
2023-12-19 06:54
nodejieba
nodejs
Django使用 haystack+whoosh实现搜索功能,并返回json数据
Django使用haystack+whoosh实现搜索功能,并返回json数据假设你已掌握了djangorestframework的基本用法安装haysyack,whoosh,
jieba
#Ubuntu系统
xirigh
·
2023-12-19 05:39
django
python
R语言文本分析《三国演义》
getwd()setwd("E:\\三国")library(
jieba
R)library(ggplot2)library(jpeg)library(reshape2)library(wordcloud)
乔巴爱雪雪
·
2023-12-18 01:31
R语言
R
文本分析
词频统计
Python进行文本处理分析与词云生成——以三国演义为例(含代码讲解)
本文将详细解读如何调用
jieba
、wordcloud以及matplotlib这些库进行文本处理分析与词云制作。
often_
·
2023-12-18 01:26
Python
爬虫
信息可视化
数据分析
数据挖掘
Python中WordCloud库及matplotlib的实现
一、词云库wordcloud的安装与运用1、安装:pipinstallwordcloud#网络安装pipinstall
jieba
#
jieba
:中文分词库python-mpipinstall#本地安装2、
ZiT11x
·
2023-12-17 14:13
python
python
matplotlib
开发语言
掌握自然语言处理的技巧:从理论到实践的完整指南
二、自然语言处理的应用场景三、自然语言处理的基本步骤1.数据获取2.数据预处理3.特征提取四、自然语言处理的常用工具1.NLTK2.
jieba
3.scapy总结前言自然语言处理(NaturalLanguageProcessing
李红小可爱
·
2023-12-17 13:32
自然语言处理
easyui
人工智能
服务器
python
接单日记(三)文本处理之词云生成
一、实验目的熟悉Python第三方库python-docx、wordcloud、
jieba
库的安装和使用熟悉使用pathlib来获取文件熟悉运用Python封装的思想熟悉使用join方法对字符串进行拼接操作了解字符串的
SteveKenny
·
2023-12-17 08:47
python
服务器
java
运维
由词性标注Part of speech Tagging引出的概念解释
词性标注工具:thulac、
jieba
序列标注序列标注问题:包括分词、词性标注问题、NER、关键词抽取、词义角色标注、词性序列标注序列标注方法
Reese小朋友
·
2023-12-16 17:50
Machine
Learning
Stuffs
算法
nlp
Python中文分析:《射雕英雄传》统计人物出场次数、生成词云图片文件、根据人物关系做社交关系网络和其他文本分析
对应内容1.中文分词,统计人物出场次数,保存到词频文件中,文件内容为出场次数最多的前300人(可大于300)的姓名和次数#-*-coding:utf-8-*-import
jieba
defgetText(
刘墨苏
·
2023-12-16 04:49
Python
python
中文分词
中文分析
社交关系网络
python分析小说《从前有座灵剑山》文本
#分词import
jieba
importreimportstring
jieba
.setLogLevel(
jieba
.logging.INFO)withopen('从前有座灵剑山.txt','r',encoding
huixiang4
·
2023-12-16 04:19
python
开发语言
数据分析
利用python语言分析小说的词频、词性、词云、小说人物出场次数排序以及小说人物关系
2023/3/2118:36#功能#导入networkx,matplotlib包importreimportnetworkxasnximportmatplotlib.pyplotaspltimport
jieba
.possegaspseg
贾高亮
·
2023-12-16 04:44
python
Python jiaba分词库安装过程 imac环境
2.下载并安装jiaba分词库全自动安装:`easy_install
jieba
`或者`pipinstall
jieba
`/`pip3in
爱上鱼的猫_产品狗
·
2023-12-15 02:55
基于python爬虫技术对于淘宝的数据分析的设计与实现
同时让机器模拟人在浏览器上的行为,登录指定的网站,通过网站内部的搜索引擎来搜索自己相应的信息,从而获取相应关键字的商品信息,并进而获取数据,然后通过csv模块将数据存储到本地库中,接着在通过pandas、
jieba
凯森森讲Python
·
2023-12-06 23:36
python
开发语言
NLP中几个简单的,字符串相似度计算方法
文章目录一、简单的需求二、技术需求:三、常见的几种简单技术四、几个示例1.使用编辑距离(LevenshteinDistance)2.使用Jaccard相似度3.使用
jieba
库进行分词以及结合余弦相似度来计算两个中文字符串相似度一
QuietNightThought
·
2023-12-06 09:23
深度学习
人工智能
nlp
使用中文维基百科训练word2vec模型
使用中文维基百科训练word2vec模型声明下载原始数据处理数据将下载后的文件转为txt文件将繁体中文转化为简体中文
jieba
分词训练模型测试模型参考声明本文作为个人学习笔记使用,考虑到有些网上教程即使收藏也存在一段时间后被删贴的可能
长沙知名李二狗
·
2023-12-06 07:13
自然语言处理学习笔记
word2vec
人工智能
自然语言处理
python统计三国高频词,画条形图,绘词云图
3、生成三国演义(下卷)词云图思路1.open打开读取整篇文档2.使用split()方法找到关键字,分开上下卷3.使用
jieba
进行中文分词4.使用Counter统计词频并将前10个高频词使用append
青衫木马牛
·
2023-12-06 00:07
python
python
开发语言
python词云图《三国演义》
import
jieba
importwordcloudfile=open(“三国演义.txt”,“r”,encoding=“utf-8”)t=file.read()file.close()ls=
jieba
.lcut
m0_61921127
·
2023-12-06 00:36
笔记
python绘制三国演义词云图
导入模块1.
jieba
的安装与使用pipinstall
jieba
condainstall-cconda-forge
jieba
Python2.X版全自动安装:easy_install
jieba
或者pipinstall
jieba
黄天宇kiki
·
2023-12-06 00:34
python
python
开发语言
中文分词
jieba
库中自定义词典的词频含义,便于分出想要的词(自留笔记)
写论文的时候,数据处理用
jieba
分词,建立了自定义词典但怎么也分不出想要的词,搜了半天发现国内基本上没人写这个,所以写下来自用,也分享给做数据处理的小伙伴们。
NINI_likelike
·
2023-12-05 22:46
python
以下选项不是python文本处理方向第三方库_Python程序设计-超星尔雅-学习通-题库零氪...
2.1python安装1、【单选题】以下属于Python机器学习第三方库的是:A、
Jieba
B、SnowNLPC、LosoD、sklearn2、【单选题】以下属于PythonWeb开发框架第三方库的是:
weixin_39552317
·
2023-12-04 07:37
Word2vec进行中文情感分析
fromsklearn.cross_validationimporttrain_test_splitfromgensim.models.word2vecimportWord2Vecimportnumpyasnpimportpandasaspdimport
jieba
fromsklearn.externalsimportjoblib
瑶子ove
·
2023-12-04 05:05
NLP
基于P-Tuning v2微调ChatGLM2-6B的操作步骤(环境已设置好)
P-Tuningv2结2.具体操作步骤如下:步骤1.sourceactivate(condaenvlist)condaactivatetorch1.13pipinstallrouge_chinesenltk
jieba
datasetscondaactivatechatglm2
zrdsunshine
·
2023-12-01 22:20
pytorch
chatgpt
linux
[源码和文档分享]基于python的B站弹幕数据分析(爬虫+可视化)
2环境的安装本项目实在pycharm中实现,使用到的第三方库有requests,bs4,pandas,
jieba
.posseg,py
ggdd5151
·
2023-12-01 19:17
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他