E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba
Python安装第三方包的三种方式
平时安装第三方包时都是直接pipinstallpackage_name,但有时会因为各种情况装不上下面以
jieba
为例:方式一:全自动安装pipinstall
jieba
easy_install
jieba
我以为你是流过泪的人
·
2023-09-01 16:47
Python专栏
python
pip
jieba
加whooh 构建自己本地数据库的搜索引擎
例子fromwhoosh.indeximportcreate_infromwhoosh.fieldsimportSchema,TEXT,IDfrom
jieba
.analyseimportChineseAnalyzerfromwhoosh.qparserimportQueryParserimportosanalyzer
东方佑
·
2023-08-31 08:53
pyrhon
日常
python
词云图
Python2.7wordcloud-英文,
jieba
-中文,但是不严谨matplotlib
jieba
词云图,文字图:https://www.jianshu.com/p/4fb27471295f快捷工具
慧玲说
·
2023-08-31 03:21
Python运行requirements.txt 文件安装包
pypi.tuna.tsinghua.edu.cn/simple加上后面的-ihttps://pypi.tuna.tsinghua.edu.cn/simple可以很快就下载完了requirements.txt文件格式
jieba
我是_程序员
·
2023-08-31 02:40
Python
python
pip
2019-05-22
importnumpyasnpfromsklearn.model_selectionimporttrain_test_splitfromsklearn.feature_extraction.textimportTfidfVectorizerimportreimportstringimport
jieba
fromsklearn.linear_modelimportSGDClassifierfromsk
yujie8888
·
2023-08-28 04:53
Python第三方库概览
Python第三方库概览知识点第三方库的获取和安装脚本程序转变为可执行程序的第三方库:PyInstaller库(必选)第三方库:
jieba
库(必选)、wordcloud库(可选)知识导图1、Python
Token_w
·
2023-08-27 18:48
Python
python从入门到精通
python
开发语言
中文分词和tfidf特征应用
的基础任务--分词2.中文分词2.1中文分词-难点2.2中文分词-正向最大匹配2.2.1实现方式一2.2.2实现方式二利用前缀字典2.3中文分词-反向最大匹配2.4中文分词-双向最大匹配2.5中文分词-
jieba
@kc++
·
2023-08-27 17:57
Natural
Language
Processing
中文分词
tf-idf
easyui
人工智能
生成对抗网络
自然语言处理
【大模型AIGC系列课程 2-3】动手为ChatGPT打造第二大脑
pipinstall
jieba
import
jieba
#中文分词包text='''6月27日,世界经济论坛发布了《2023年10大新兴技术》报告。
小爷毛毛(卓寿杰)
·
2023-08-27 00:56
大模型AIGC
AIGC
Python统计中文词频的四种方法
中文词频统计主要是通过open()打开文本,然后read()方法读取后,采用结巴分词(
jieba
)模块进行分词,接着用推表推导式、Counter或者是字典的方法来统计词频,也可以采用NLTK的方法,最后格式化打印出来
PythonFun
·
2023-08-26 18:15
python小项目
python二级
基础操作
python
windows
c#
学习Python的第三天
/novel/threekingdom.txt','r',encoding='utf-8')asf:words=f.read()分词words_list=
jieba
.lcut(words)每个词出现的次数
宁静夏天_37b0
·
2023-08-26 02:30
基于Spark框架的新闻推荐系统的设计与实现
1.摘要离线ALS算法,以及基于内容的推荐算法进行结合.实时计算部分,使用Spark平台上的SparkStreaming流处理技术,处理日志收集框架Flume收集的日志信息.2.需要的技术
jieba
Wzideng
·
2023-08-25 06:12
科研--论文--实验
大数据学习
求职
算法
大数据
论文研究
新闻推荐
推荐算法
NLP - 如何解决ModuleNotFoundError: No module named ‘
jieba
‘的问题
错误描述在JUPYTER中,使用结巴分词,出错:ModuleNotFoundError:Nomodulenamed'
jieba
'解决方案在AnacondaPrompt中,执行以下指令(可以解决):pipinstall
jieba
-ihttps
cloneme01
·
2023-08-23 07:35
NLP相关
自然语言处理
人工智能
「补充」20Python主要模块的使用
importpandas导入数据,为数据指定索引,引用数据框,数据离散化importmatplotlib.pylab数据可视化,作图(折线图,散点图,直方图)importpymysql连接数据库import
jieba
林拂晓
·
2023-08-22 13:58
No module named ‘
jieba
‘解决办法
此方法适用于python编译软件出现Nomodulenamed‘XXX’问题的处理(XXX里面需是相应工具包名,而非自定义模块名)此问题的核心就是找不到对应模块。如果是自定义模块出现这个问题,那么就是模块定义和模块引用对应的名字打错了。目录此方法适用于python编译软件出现Nomodulenamed'XXX'问题的处理(XXX里面需是相应工具包名,而非自定义模块名)1.先确定自己是否有安装相应的
Cheny1m
·
2023-08-22 12:04
Python学习与使用
python
pycharm
python生成whl包
setuptools.readthedocs.io/en/latest/setuptools.htmlfromsetuptoolsimportfind_packages,setupsetup(name='
jieba
_test
MasonYyp
·
2023-08-21 22:36
机器学习
中文文本处理高手指南:从零到高手掌握Python中
jieba
库
介绍
jieba
是一个强大的中文分词工具,用于将中文文本切分成单个词语。它支持多种分词模式,包括精确模式、全模式、搜索引擎模式等,还可以通过用户自定义词典来增加新词。
子午
·
2023-08-21 11:01
100个Python知识点
python
开发语言
中文文本处理高手指南:从零到高手掌握Python中
jieba
库
介绍
jieba
是一个强大的中文分词工具,用于将中文文本切分成单个词语。它支持多种分词模式,包括精确模式、全模式、搜索引擎模式等,还可以通过用户自定义词典来增加新词。
·
2023-08-21 10:14
python
jieba
结巴分词--关键词抽取(核心词抽取)
转自:http://www.cnblogs.com/zhbzz2007欢迎转载,也请保留这段声明。谢谢!1简介关键词抽取就是从文本里面把跟这篇文档意义最相关的一些词抽取出来。这个可以追溯到文献检索初期,当时还不支持全文搜索的时候,关键词就可以作为搜索这篇论文的词语。因此,目前依然可以在论文中看到关键词这一项。除了这些,关键词还可以在文本聚类、分类、自动摘要等领域中有着重要的作用。比如在聚类时将关键
毛里里求斯
·
2023-08-20 15:41
数据分析与挖掘
jieba分词
Lucene bm25 结合
jieba
中文分词搜索
org.apache.lucenelucene-core6.2.0org.apache.lucenelucene-test-framework6.2.0junitjunit4.12org.apache.lucenelucene-queryparser6.2.0org.jsoupjsoup1.9.2com.huaban
jieba
-analy
三印
·
2023-08-20 15:11
Python和JAVA
搜索引擎
大数据
lucene
java
ik分词和
jieba
分词哪个好_
Jieba
&IK Analyzer——分词工具的比较与使用
常见开源的中文分词工具接下来,我具体介绍
Jieba
和IKAnalyzer的使用。
weixin_39943000
·
2023-08-20 15:40
ik分词和jieba分词哪个好
jieba
中的分词方法
jieba
中的分词方法最近刚好在看一些自然语言处理方面的东西,写的一些代码中也用到了
jieba
这个库,感觉从效果上来说还是可以的。
tuqinag
·
2023-08-20 15:10
自然语言处理
自然语言处理
jieba
中文分词
jieba
分词怎么操作_
jieba
分词简单应用
关键词抽取就是从文本里面把跟这篇文档意义最相关的一些词抽取出来。这个可以追溯到文献检索初期,当时还不支持全文搜索的时候,关键词就可以作为搜索这篇论文的词语。因此,目前依然可以在论文中看到关键词这一项。除了这些,关键词还可以在文本聚类、分类、自动摘要等领域中有着重要的作用。比如在聚类时将关键词相似的几篇文档看成一个团簇,可以大大提高聚类算法的收敛速度;从某天所有的新闻中提取出这些新闻的关键词,就可以
weixin_39557797
·
2023-08-20 15:10
jieba分词怎么操作
jieba
分词关键词抽取
1简介关键词抽取就是从文本里面把跟这篇文档意义最相关的一些词抽取出来。这个可以追溯到文献检索初期,当时还不支持全文搜索的时候,关键词就可以作为搜索这篇论文的词语。因此,目前依然可以在论文中看到关键词这一项。除了这些,关键词还可以在文本聚类、分类、自动摘要等领域中有着重要的作用。比如在聚类时将关键词相似的几篇文档看成一个团簇,可以大大提高聚类算法的收敛速度;从某天所有的新闻中提取出这些新闻的关键词,
菜鸡程序员丶
·
2023-08-20 15:09
学习
3、Python 中文分词组件
Jieba
现在开源的中文分词工具有SnowNLP、THULAC、
Jieba
和HanLP等,这里梳理下
Jieba
组件的内容。
谁是谁的小确幸
·
2023-08-20 15:39
Python
jieba分词
关键词提取
词性分析与自定义词典
TF-IDF算法
TextRank算法
统计语言模型-词向量-中文分词-
jieba
/wordcloud-分类算法
统计语言模型-词向量-中文分词-
jieba
/wordcloud-分类算法目录统计语言模型-词向量-中文分词-
jieba
/wordcloud-分类算法一、基本理论1.统计语言模型2.词向量(1)tfidf
小黄人的黄
·
2023-08-20 15:08
数据分析
机器学习
自然语言处理
手搓大语言模型 使用
jieba
分词制作词表,词表大小几十万 加强依赖性
jieba
分词词表生成与训练importnumpyasnpimportpaddleimportpandasaspdfrommultiprocessingimportProcess,Manager,freeze_supportfromjust_mask_emimportJustMaskEm
东方佑
·
2023-08-20 14:38
NLP
语言模型
人工智能
自然语言处理
Django中全文检索(whoosh+
jieba
+haystack)
本文操作环境:whoosh2.7.4django-haystack2.8.1
jieba
0.39环境配置1、pipinstalldjango-haystack#安装haystack2、pipinstallwhoosh
想旅游的程序员
·
2023-08-20 10:26
sphinx 安装
sudoapt-getinstallpython3-pippip3安装sphinxpip3installsphinxsphinx-autobuildsphinx_rtd_themerecommonmark
jieba
3k
冰冰大象
·
2023-08-17 15:44
es自定义分词器支持数字字母分词,中文分词器
jieba
支持添加禁用词和扩展词典
自定义分析器,分词器PUThttp://xxx.xxx.xxx.xxx:9200/test_index/{"settings":{"analysis":{"analyzer":{"char_test_analyzer":{"tokenizer":"char_test_tokenizer","filter":["lowercase"]}},"tokenizer":{"char_test_tokeni
专职
·
2023-08-16 22:22
elasticsearch
中文分词
大数据
python 词云字体为什么显示不了_用Python和WordCloud绘制词云(内附让字体清晰的秘笈)...
环境及模块:win764位python3.6.4wordcloud1.5.0pillow5.0.0
jieba
0.39目标:绘制安徽省2018年某些科技项目的词云,直观展示热点。
weixin_39970855
·
2023-08-16 21:51
python
词云字体为什么显示不了
word2vec工具实战(使用gensim)
condacreate-nword2vecpython=3.8condaactivateword2vec然后安装一下所需要的库pipinstallnumpypipinstallscipypipinstallgensimpipinstall
jieba
Otto_1027
·
2023-08-14 22:42
跑项目实况
word2vec
自然语言处理
pyspark使用anaconda后spark-submit方法
实验步骤如下:测试代码使用
jieba
做分词,但服务器上面没有此库:import
jieba
jieba
.initialize()frompyspark.contextimportSparkContextfrompyspark.confim
crookie
·
2023-08-14 09:23
pyspark
anaconda
spark-subm
python《红楼梦》人物统计
《红楼梦》人物统计import
jieba
txt=open("D:\红楼梦.txt","r",\encoding='utf-8').read()#打开文件#排除不是人名的词语excludes={"什么",
shangxianjiao
·
2023-08-14 08:23
python
python
Python读取Word统计词频输出到Excel
pipinstall
jieba
\n","!pipinstall-ihttps://pypi.tuna.tsinghua.edu.cn/s
牧文山
·
2023-08-14 07:53
Python自动化办公
python
word
excel
用Python来爬一下网易云歌词,简单操作一波,你学会了吗
开发工具Python版本:3.5.4相关模块:requests模块;bs4模块;win_unicode_console模块;
jieba
模块;matplotlib模块;xlwt模块;numpy模块;snownl
IT吴彦祖
·
2023-08-14 04:07
NeuralNLP-NeuralClassifier的使用记录(二),训练预测自己的【中文文本多分类】
NeuralNLP-NeuralClassifier的使用记录,训练预测自己的【中文文本多分类】数据准备:与英文的训练预测一致,都使用相同的数据格式,将数据通过代码处理为JSON格式,以下是我使用的一种,不同的原数据情况会有所改动:import
jieba
.analyseasanaimportreimport
jieba
defmake_data_json
葡萄成熟时_
·
2023-08-14 01:20
NLP
分类
数据挖掘
人工智能
国二赏析(六)
第一题答案:第一个空:nls=ntxt.split('')第二个空:0.5第二题答案:第一个空:
jieba
第二个空:ls=
jieba
.lcut(txt)第三题说到这里,我们有必要熟悉几个函数:eval:
小董不太懂
·
2023-08-12 16:21
简单的用Python获取一下视频弹幕,新手练手实战项目,非常简单
需要准备这些软件Python3.8Pycharm模块使用importrequests数据请求import
jieba
分词importwordcloud词云importparsel数据解析importre正则
轻松学Python
·
2023-08-12 10:52
python
python
开发语言
Gephi国家政策文本关键词共现矩阵的共现网络图分析
文章目录分词
jieba
分词关键词提取python处理形成共现矩阵gephi导入共现矩阵过滤边的权重进行优化最终效果分词本文研究不同文章中的关键词出现次数,因此将出现在同一篇文章中的关键词都定义为”共现”
Cachel wood
·
2023-08-11 20:12
python可视化教程
矩阵
线性代数
[C++项目] Boost文档 站内搜索引擎(4): 搜索的相关接口的实现、线程安全的单例index接口、cpp
jieba
分词库的使用、综合调试...
有关Boost文档搜索引擎的项目的前三篇文章,已经分别介绍分析了:项目背景:[C++项目]Boost文档站内搜索引擎(1):项目背景介绍、相关技术栈、相关概念介绍…文档解析、处理模块parser的实现:[C++项目]Boost文档站内搜索引擎(2):文档文本解析模块parser的实现、如何对文档文件去标签、如何获取文档标题…文档正排索引与倒排索引建立的接口的实现:[C++项目]Boost文档站内搜
七月.cc
·
2023-08-11 16:03
c++
搜索引擎
Boost
项目
linux
文本分析-使用
jieba
库实现TF-IDF算法提取关键词
♂️个人主页:@艾派森的个人主页✍作者简介:Python学习者希望大家多多支持,我们一起进步!如果文章对你有帮助的话,欢迎评论点赞收藏加关注+1.TF-IDF算法介绍TF-IDF(TermFrequency-InverseDocumentFrequency,词频-逆文件频率)是一种用于资讯检索与资讯探勘的常用加权技术。TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一
艾派森
·
2023-08-11 04:19
文本分析
数据分析
python
tf-idf
Python爬虫:拉钩
import
jieba
importnumpyasnpimportpandasaspdimportmatplotlib.pyplotaspltfromdask.bytes.tests.test_httpimportrequests
轻语风
·
2023-08-10 11:44
记录一下通过Python+Gensim+
jieba
进行中文分词及特征提取的坑
中文分词所采用的工具是
jieba
,用的人也比较多,网上也有很多的使用教程,这里不再赘述。一
43b8e63c4c9f
·
2023-08-10 04:32
ElasticSearch7.x集群搭建详细步骤
创建用于存放数据与日志的目录6.集群配置7.JVM配置8.使用ROOT账户执行以下命令9.需要修改以下配置文件10.启动服务11.ElasticSearchIK分词器插件的安装12.Elasticsearch
jieba
lfwh
·
2023-08-09 21:14
ELK
elasticsearch
elk
centos
python编程:提取word、pdf、excel信息的动词与名词,制作词云图
工具类参数:text:数据mode:word文档选选wordexcel或者pdf选mode=‘pdf’importosimportreimport
jieba
.possegasjpgfromwordcloudimportWordCloudfrommatplotlibimportpyplotaspltimportimageioimportpandasaspdimportxlrdimportxlwtim
HanZee
·
2023-08-09 17:16
python编程
jieba
分词安装失败解决方法
按照网上教程全自动安装pipinstall
jieba
/pip3install
jieba
报错就改用半自动安装:以下安装方法thulac也适用在
jieba
官网上下载http://pypi.python.org
Suki__W
·
2023-08-08 19:34
jieba
中文分词工具
jieba
的使用
1.
jieba
简介在自然语言处理任务时中文文本需要通过分词获得单个的词语,这个时候就需要用到中文分词工具
jieba
jieba
分词是一个开源项目,地址为github.com/fxsjy/
jieba
它在分词准确度和速度方面均表现不错
qq_30895747
·
2023-08-08 17:36
python智能算法
中文分词
自然语言处理
python
jieba
jieba分词
用Python获取高分热播剧弹幕数据,制作词云分析
嗨喽大家好我是小曼呐前言环境介绍python3.8pycharmrequests>>>pipinstallrequestspandas>>>pipinstallpandas
jieba
stylecloud
python_小曼
·
2023-08-08 10:30
python
开发语言
爬虫
信息可视化
云计算
jieba
下载安装教程
jieba
下载安装教程1.打开官方网站:https://pypi.org/project/
jieba
/#files2.下载,安装在安装python路径下(或者任意都行,但要记住安装地址)3.把下载的压缩包一键解压
Amelia0312
·
2023-08-07 03:19
机器学习
python
大数据
6.4 字典类型及操作
六、组合数据类型6.1集合类型及操作6.2序列类型及操作6.3实例9:基本统计值计算6.4字典类型及操作6.5模块5:
jieba
库的使用6.6实例10:文本词频统计方法论python三种主流组合数据类型的使用方法实践能力学会编写处理一组数据的程序
郭柯廷
·
2023-08-06 19:45
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他