E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Jieba
Jieba
+collections中英文混合语言文章词频统计
Jieba
+collections中英文混合语言文章词频统计前言前几个星期写了“WordCount-词频统计-英语考级必备-超好用-开源-Python”想着只能统计英文有局限性,就想着把中文的加上。
ZehangZhu Studio
·
2023-12-22 18:26
Python高效办公
python
算法
pip
使用Gensim训练Word2vec模型
1、训练Gensim模型importgensim#gensim==4.3.2import
jieba
importreimportwarningsimportloggingwarnings.filterwarnings
Shy960418
·
2023-12-21 17:20
word2vec
人工智能
自然语言处理
pycharm或anaconda安装第三方库的办法
jieba
这个包也可以在清华镜像下载哇塞!我下载的是
jieba
.tar.gz的压
LinlyZhai
·
2023-12-20 13:11
pycharm
ide
python
Python爬虫实战-采集微博评论,看看大家都在讨论什么
嗨喽,大家好呀~这里是爱看美女的茜茜呐开发环境:python3.8:解释器pycharm:代码编辑器模块使用:requests:发送请求parsel:解析数据
jieba
pandasstylecloud如何安装
茜茜是帅哥
·
2023-12-20 09:27
python爬虫
python
爬虫
开发语言
pycharm
学习
jieba
-fenci 结巴分词与繁简体转换 segment
拓展阅读DFA算法详解为了便于大家学习,项目开源地址如下,欢迎fork+star鼓励一下老马~敏感词sensitive-word分词segment结巴分词请参考结巴分词原理。结巴分词的不足这里是针对如果使用繁简体转换,仅仅想使用分词。那么结巴分词会有哪些不足呢?HMM是一种面向未来的分词(预测),但是繁体是一种面向过去的(词组/字固定)看似非常有用的HMM,到了繁简体转换全部成为了鸡肋。词库较大。
老马啸西风
·
2023-12-20 08:50
nlp
word
开发语言
安全
github
开源
中文分词
nlp
jieba
-fenci 结巴分词之词性标注实现思路 speechTagging segment
拓展阅读DFA算法详解为了便于大家学习,项目开源地址如下,欢迎fork+star鼓励一下老马~敏感词sensitive-word分词segment词性标注词性标注的在分词之后进行标注,整体思路也不难:(1)如果一个词只有一种词性,那么直接固定即可。(2)如果一个词有多种词性,那么需要推断出最大概率的一种。这个其实有些类似分词的时候做的事情,分词的过程中也是存在多种选择,然后选择概率最大的一种(当然
老马啸西风
·
2023-12-20 08:50
nlp
word
开发语言
安全
github
nlp
中文分词
文本深度学习向量化——Word2Vec、Doc2Vec
1数据预处理首先,需要引入
jieba
库,并定义get_stopwords和preprocess两个函数。get_stopwords函数用于读取停用词表,preprocess函数用于分词并去除停用词。
ZT-Brillly
·
2023-12-20 04:44
深度学习
word2vec
python
人工智能
机器学习
nodejs使用node
jieba
Node
jieba
是一个基于Node.js平台的中文分词模块,用于将中文文本切分成有意义的词汇。
T3165919332
·
2023-12-19 06:54
nodejieba
nodejs
Django使用 haystack+whoosh实现搜索功能,并返回json数据
Django使用haystack+whoosh实现搜索功能,并返回json数据假设你已掌握了djangorestframework的基本用法安装haysyack,whoosh,
jieba
#Ubuntu系统
xirigh
·
2023-12-19 05:39
django
python
R语言文本分析《三国演义》
getwd()setwd("E:\\三国")library(
jieba
R)library(ggplot2)library(jpeg)library(reshape2)library(wordcloud)
乔巴爱雪雪
·
2023-12-18 01:31
R语言
R
文本分析
词频统计
Python进行文本处理分析与词云生成——以三国演义为例(含代码讲解)
本文将详细解读如何调用
jieba
、wordcloud以及matplotlib这些库进行文本处理分析与词云制作。
often_
·
2023-12-18 01:26
Python
爬虫
信息可视化
数据分析
数据挖掘
Python中WordCloud库及matplotlib的实现
一、词云库wordcloud的安装与运用1、安装:pipinstallwordcloud#网络安装pipinstall
jieba
#
jieba
:中文分词库python-mpipinstall#本地安装2、
ZiT11x
·
2023-12-17 14:13
python
python
matplotlib
开发语言
掌握自然语言处理的技巧:从理论到实践的完整指南
二、自然语言处理的应用场景三、自然语言处理的基本步骤1.数据获取2.数据预处理3.特征提取四、自然语言处理的常用工具1.NLTK2.
jieba
3.scapy总结前言自然语言处理(NaturalLanguageProcessing
李红小可爱
·
2023-12-17 13:32
自然语言处理
easyui
人工智能
服务器
python
接单日记(三)文本处理之词云生成
一、实验目的熟悉Python第三方库python-docx、wordcloud、
jieba
库的安装和使用熟悉使用pathlib来获取文件熟悉运用Python封装的思想熟悉使用join方法对字符串进行拼接操作了解字符串的
SteveKenny
·
2023-12-17 08:47
python
服务器
java
运维
由词性标注Part of speech Tagging引出的概念解释
词性标注工具:thulac、
jieba
序列标注序列标注问题:包括分词、词性标注问题、NER、关键词抽取、词义角色标注、词性序列标注序列标注方法
Reese小朋友
·
2023-12-16 17:50
Machine
Learning
Stuffs
算法
nlp
Python中文分析:《射雕英雄传》统计人物出场次数、生成词云图片文件、根据人物关系做社交关系网络和其他文本分析
对应内容1.中文分词,统计人物出场次数,保存到词频文件中,文件内容为出场次数最多的前300人(可大于300)的姓名和次数#-*-coding:utf-8-*-import
jieba
defgetText(
刘墨苏
·
2023-12-16 04:49
Python
python
中文分词
中文分析
社交关系网络
python分析小说《从前有座灵剑山》文本
#分词import
jieba
importreimportstring
jieba
.setLogLevel(
jieba
.logging.INFO)withopen('从前有座灵剑山.txt','r',encoding
huixiang4
·
2023-12-16 04:19
python
开发语言
数据分析
利用python语言分析小说的词频、词性、词云、小说人物出场次数排序以及小说人物关系
2023/3/2118:36#功能#导入networkx,matplotlib包importreimportnetworkxasnximportmatplotlib.pyplotaspltimport
jieba
.possegaspseg
贾高亮
·
2023-12-16 04:44
python
Python jiaba分词库安装过程 imac环境
2.下载并安装jiaba分词库全自动安装:`easy_install
jieba
`或者`pipinstall
jieba
`/`pip3in
爱上鱼的猫_产品狗
·
2023-12-15 02:55
基于python爬虫技术对于淘宝的数据分析的设计与实现
同时让机器模拟人在浏览器上的行为,登录指定的网站,通过网站内部的搜索引擎来搜索自己相应的信息,从而获取相应关键字的商品信息,并进而获取数据,然后通过csv模块将数据存储到本地库中,接着在通过pandas、
jieba
凯森森讲Python
·
2023-12-06 23:36
python
开发语言
NLP中几个简单的,字符串相似度计算方法
文章目录一、简单的需求二、技术需求:三、常见的几种简单技术四、几个示例1.使用编辑距离(LevenshteinDistance)2.使用Jaccard相似度3.使用
jieba
库进行分词以及结合余弦相似度来计算两个中文字符串相似度一
QuietNightThought
·
2023-12-06 09:23
深度学习
人工智能
nlp
使用中文维基百科训练word2vec模型
使用中文维基百科训练word2vec模型声明下载原始数据处理数据将下载后的文件转为txt文件将繁体中文转化为简体中文
jieba
分词训练模型测试模型参考声明本文作为个人学习笔记使用,考虑到有些网上教程即使收藏也存在一段时间后被删贴的可能
长沙知名李二狗
·
2023-12-06 07:13
自然语言处理学习笔记
word2vec
人工智能
自然语言处理
python统计三国高频词,画条形图,绘词云图
3、生成三国演义(下卷)词云图思路1.open打开读取整篇文档2.使用split()方法找到关键字,分开上下卷3.使用
jieba
进行中文分词4.使用Counter统计词频并将前10个高频词使用append
青衫木马牛
·
2023-12-06 00:07
python
python
开发语言
python词云图《三国演义》
import
jieba
importwordcloudfile=open(“三国演义.txt”,“r”,encoding=“utf-8”)t=file.read()file.close()ls=
jieba
.lcut
m0_61921127
·
2023-12-06 00:36
笔记
python绘制三国演义词云图
导入模块1.
jieba
的安装与使用pipinstall
jieba
condainstall-cconda-forge
jieba
Python2.X版全自动安装:easy_install
jieba
或者pipinstall
jieba
黄天宇kiki
·
2023-12-06 00:34
python
python
开发语言
中文分词
jieba
库中自定义词典的词频含义,便于分出想要的词(自留笔记)
写论文的时候,数据处理用
jieba
分词,建立了自定义词典但怎么也分不出想要的词,搜了半天发现国内基本上没人写这个,所以写下来自用,也分享给做数据处理的小伙伴们。
NINI_likelike
·
2023-12-05 22:46
python
以下选项不是python文本处理方向第三方库_Python程序设计-超星尔雅-学习通-题库零氪...
2.1python安装1、【单选题】以下属于Python机器学习第三方库的是:A、
Jieba
B、SnowNLPC、LosoD、sklearn2、【单选题】以下属于PythonWeb开发框架第三方库的是:
weixin_39552317
·
2023-12-04 07:37
Word2vec进行中文情感分析
fromsklearn.cross_validationimporttrain_test_splitfromgensim.models.word2vecimportWord2Vecimportnumpyasnpimportpandasaspdimport
jieba
fromsklearn.externalsimportjoblib
瑶子ove
·
2023-12-04 05:05
NLP
基于P-Tuning v2微调ChatGLM2-6B的操作步骤(环境已设置好)
P-Tuningv2结2.具体操作步骤如下:步骤1.sourceactivate(condaenvlist)condaactivatetorch1.13pipinstallrouge_chinesenltk
jieba
datasetscondaactivatechatglm2
zrdsunshine
·
2023-12-01 22:20
pytorch
chatgpt
linux
[源码和文档分享]基于python的B站弹幕数据分析(爬虫+可视化)
2环境的安装本项目实在pycharm中实现,使用到的第三方库有requests,bs4,pandas,
jieba
.posseg,py
ggdd5151
·
2023-12-01 19:17
python pytorch实现RNN,LSTM,GRU,文本情感分类
先对句子进行分词并构建词表2.生成word2id3.构建模型4.训练模型5.测试模型代码如下:importpandasaspdimporttorchimportmatplotlib.pyplotaspltimport
jieba
importnumpyasnp
Mr Gao
·
2023-12-01 06:27
人工智能
python
自然语言处理
python
rnn
pytorch
python实验3 石头剪刀布游戏
运用
jieba
库进行中文分词并进行文本词频统计。二、知识要点图三、实验1.石头剪刀布实验题目利用列表实现石头剪刀布游戏。请补全程序并提交。请思考:winList使用元组实现可以吗?童鞋
七百~~~汪汪汪
·
2023-12-01 00:17
python
实验
python
开发语言
python
jieba
分词_Python入门:
jieba
库的使用
jieba
库是一款优秀的Python第三方中文分词库,
jieba
支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。
weixin_39996141
·
2023-11-30 17:37
python
jieba分词
python之
jieba
分词库
一、
jieba
库基本介绍(1)、
jieba
库概述
jieba
是优秀的中文分词第三方库-中文文本需要通过分词获得单个的词语-
jieba
是优秀的中文分词第三方库,需要额外安装-
jieba
库提供三种分词模式,最简单只需掌握一个函数
月疯
·
2023-11-30 17:03
【python库】
python3:
jieba
(“结巴”中文分词库) .2023-11-28
1.安装
jieba
库(Windows系统)打开cmd.exe(命令提示符),输入下面内容后回车,完成
jieba
库安装pipinstall-ihttps://mirrors.bfsu.edu.cn/pypi
mklpo147
·
2023-11-30 17:31
#
练习
python
文本情感分类
传统模型——基于情感词典输入句子,预处理文本分词训练情感词典(积极消极词汇、否定词、程度副词等)判断规则(算法模型)情感分类文本预处理使用正则表达式,过滤掉我们不需要的信息(如Html标签等)句子自动分词
jieba
dreampai
·
2023-11-30 06:13
【python】词频统计
importreimport
jieba
importwordcloudimportnumpyasnpfromPILimportImageimportmatplotlib.pyplotaspltwithopen
ZQAW
·
2023-11-29 22:03
python
python
开发语言
【Python】
jieba
分词基础
jieba
分词主要有3种模式:1、精确模式:
jieba
.cut(文本,cut_all=False)2、全模式:
jieba
.cut(文本,cut_all=True)3、搜索引擎模式:
jieba
.cut_for_search
zhangbin_237
·
2023-11-29 22:43
python
开发语言
数据可视化
中文分词
[nlp] tokenizer
词粒度的切分就跟人类平时理解文本原理一样,可以用一些工具来完成,例如英文的NLTK、SpaCy,中文的
jieba
、HanLP等。词粒度Toke
心心喵
·
2023-11-29 09:45
nlp
自然语言处理
人工智能
麻烦看下这个表格宏命令如何修复?
image.png二、实现过程这里【哎呦喂是豆子~】、【巭孬】给了一个思路,
jieba
分词-强大的Python中文分词。image.png原来是分类。。。image.png顺利地解决了粉丝的问题。
皮皮_f075
·
2023-11-29 01:57
测试C#分词工具
jieba
.NET
jieba
.NET是
jieba
中文分词的C#版本,后者是优秀的Python中文分词组件GitHub中得到超过3万星。
gc_2299
·
2023-11-28 04:05
dotnet编程
c#
分词
jieba.NET
数据可视化词云
自选一部小说(txt格式)参照PPT绘制小说的高频词云+社交网络图《帝皇书》词云import
jieba
importwordcloudimportnetworkxasnximportmatplotlib.pyplotaspltimportmatplotlibdefgetText
想不到名字222
·
2023-11-27 11:48
python
其他
计算机二级Python基本操作题-序号43
#键盘输入一句话,用
jieba
分词后,将切分的词组按照在原话中逆序输出到屏幕上,词组中间没有空格。
—Miss. Z—
·
2023-11-25 12:27
python
算法
Python+
jieba
+wordcloud实现文本分词、词频统计、条形图绘制及不同主题的词云图绘制
使用到的主要第三方库:
jieba
-0.42.1,wordcloud-1.8.2.2,matplotlib-3.5.1。
Ryo_Yuki
·
2023-11-24 20:17
Python
python
词频统计
词云绘制
批量处理docx文档,统计关键词出现频率并重命名word文档
批量处理docx文档,统计关键词出现频率并重命名word文档import
jieba
importosfromdocximportDocumentword批处理word重命名
jieba
分词同义词替换keywords
大豆燃豆萁
·
2023-11-24 18:35
文档相似度之词条相似度word2vec、及基于词袋模型计算sklearn实现和gensim
文档相似度之词条相似度word2vec、及基于词袋模型计算sklearn实现和gensim示例代码:import
jieba
importpandasaspdfromgensim.models.word2vecimportWord2Vecfromgensimimportcorpora
IT之一小佬
·
2023-11-24 06:35
文本挖掘/NLP
自然语言处理
nlp
python
深度学习
机器学习
[python] 使用scikit-learn工具计算文本TF-IDF值(转载学习)
相关文章如下:[python爬虫]Selenium获取百度百科旅游景点的InfoBox消息盒Python简单实现基于VSM的余弦相似度计算基于VSM的命名实体识别、歧义消解和指代消解[python]使用
Jieba
彩虹下的天桥
·
2023-11-24 06:29
study
python
sklearn
text
classify
python 中文切词并计算相似度
date2016/11/08importosos.chdir(u"G:\project")importMySQLdbimportpandasaspdimportreimportcodecsimport
jieba
import
jieba
.analyseimportloggingfromgensimimportcorpora
hm11290219
·
2023-11-24 06:55
Python
python
jieba
词性标注
Ag形语素形容词性语素。形容词代码为a,语素代码g前面置以A。a形容词取英语形容词adjective的第1个字母。ad副形词直接作状语的形容词。形容词代码a和副词代码d并在一起。an名形词具有名词功能的形容词。形容词代码a和名词代码n并在一起。b区别词取汉字“别”的声母。c连词取英语连词conjunction的第1个字母。Dg副语素副词性语素。副词代码为d,语素代码g前面置以D。d副词取adver
wgyang_gz
·
2023-11-23 02:02
基于Python(Pandas+Pyecharts)实现全国热门旅游景点数据可视化【500010037】
导入模块import
jieba
importpandasaspdfromcollectionsimportCounterfrompyecharts.chartsimportLine,Pie,Scatter
神仙别闹
·
2023-11-22 13:38
Python
教程
信息可视化
python
pandas
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他