E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba分词器
python生成词云
importpandasaspdimport
jieba
,refromscipy.miscimportimreadfromwordcloudimportWordCloud,ImageColorGenerator
lbship
·
2020-08-20 00:05
Python
Jieba
分词Python简单实现
这次将与大家分享
Jieba
中文分词Python简单实现,由于
Jieba
分词是基于词频最大切分组合,所以不用做词频统计,可以直接得到其关键字。
weixin_33845477
·
2020-08-19 23:30
开源项目 智能文本输入助手
线下部分使用cpp
jieba
分词读取语料库创建词典,中英文字符串分割算法创建索引文件;线上部分采用MirrorLib框架搭建服务器,根据请
Worthy_Wang
·
2020-08-19 23:20
开源项目
python爬取微信好友签名生成词云
coding:utf-8-*-importitchatimportnumpyasnpimportpandasaspdfromcollectionsimportdefaultdictimportreimport
jieba
importosimportmatplotlib.pyplotaspltfromwordcloudimportWordCloud
Lion349
·
2020-08-19 23:09
10分钟教你用Python玩转微信之抓取好友个性签名制作词云
后台登录:词云:02环境准备Python版本:3.6.0系统平台:Windows10X64IDE:pycharm相关模块:re模块;itchat模块;
jieba
模块;importmatplotlib.pyplot
infinitor
·
2020-08-19 23:05
简单的结巴分词与词频统计
/usr/bin/envpython#-*-coding:utf-8-*-importreimportsysimport
jieba
importjsonfromcollectionsimportCounterreload
超级无敌的小咩~
·
2020-08-19 22:56
python基础
用python 写一个中文
分词器
在不用第三方库的情况下,用python写一个
分词器
需要先有一个本地词典才能进行分词importreimportosos.chdir('d:\workpath')##将
jieba
分词的词典变为自己的词典#
PeterHeinz
·
2020-08-19 22:08
python
库引用time、radom、pyinstaller、
jieba
、wordcloud、os
time库:是Python中处理时间的库(标准库)时间获取:time()ctime()gmtime()时间格式化:strftime()strptime()程序计时:sleep(),perf_counter()时间获取time():获取当前时间戳,即计算机内部时间值,浮点数ctime():获取当前时间并以易读方式表示,返回字符串gmtime():获取当前时间,表示为计算机可处理的时间格式时间格式化:
_Zer0
·
2020-08-19 21:59
python
使用python 实现 微信好友 个性签名 并 制作 词云图
环境搭建:pipinstallitchatnumpywordcloudmatplotlib
jieba
先把上面的几个包安装完成,直接上代码importitchatfromitchat.contentimportTEXTimportreimportosimportnumpyasnpfromPILimportImagefromwordcloud.wordcloudimportWordCloudifitc
weixin_38167262
·
2020-08-19 21:27
Python 实现的、带GUI界面的词云生成器
准备工作:1.安装必要的第三方库:pipinstallwordcloudpipinstall
jieba
pipinsta
weixin_34259232
·
2020-08-19 21:53
微信签名生成词云
微信签名生成词云首先我们需要安装一下模块pipinstallwxpypipinstallmatplotlibpipinstallwordcloudpipinstallPillowpipinstallnumpypipinstall
jieba
weixin_30808253
·
2020-08-19 21:29
Python3红楼梦人名出现次数统计分析
一、程序说明本程序流程是读取红楼梦txt文件----使用
jieba
进行分词----借助Counter读取各人名出现次数并排序----使用matplotlib将结果可视化这里的统计除了将“熙凤”出现的次数合并到
weixin_30657541
·
2020-08-19 21:16
python 微信生成词云(itchat,
jieba
,wordcloud)
完整代码:importitchatimportre#正则匹配#先登录,扫二维码登录微信itchat.login()#获取好友列表,返回的是json信息friends=itchat.get_friends(update=True)[0:]#打印好友列表信息#print(friends)tList=[]foriinfriends:#获取个性签名,替换掉span,class,emojisignature
飘若归客
·
2020-08-19 20:22
python
爬虫
python
Python
jieba
中文分词的使用
Python
jieba
中文分词的使用使用
jieba
分词来实现《本草纲目》里面常用药材。
Linux.python
·
2020-08-19 19:53
jieba
词云图
nltk:python自然语言处理二
前面的一些分词工具都是写好的的规则如果我们想按照自己的规则进行分词可以使用正则
分词器
1.RegexpTokenizer类fromnltk.tokenizeimportRegexpTokenizertext
qq_41864652
·
2020-08-19 19:23
nltk
python生成微信个性签名的词云图
需要用到的库:itchat,
jieba
,numpy,wordcloudimportitchatimportreimport
jieba
importmatplotlib.pyplotaspltimportPIL.ImageasImageimportnumpyasnpimportosfromwordcloudimportWordCloud
乐亦亦乐
·
2020-08-19 19:38
python
微信
个性签名词云图
python
itchat
使用python获取邮箱邮件
首先我们要在邮箱的设置中开通那个POP3然后我们要导入这些包importpoplibfromdatetimeimportdatetimeimport
jieba
importrefromemail.parserimportParserfromemail.headerimportdecode_headerfromemail.utilsimportparseaddrfromlxmlimportetree
INSNNP李志明
·
2020-08-19 19:33
python词云(含中文英文)
python词云fromosimportpathimport
jieba
importmatplotlib.pyplotaspltimportnumpyasnpfromPILimportImagefromwordcloudimportWordCloud
摩登猪头
·
2020-08-19 19:25
Python
python 中文分词工具
python中文分词工具
jieba
,https://github.com/fxsjy/
jieba
jieba
_fast,https://github.com/deepcs233/
jieba
_fastnltk
三个石头2016
·
2020-08-19 18:34
python文本处理
Python实现微信好友签名词云的构建(itchat、
jieba
、wordcloud)
最近Python操作微信的文章挺火的,结合前面介绍过的
jieba
和wordcloud做一个简单的微信好友签名的词云。
mighty13
·
2020-08-19 18:08
代码片段
微信开发
python结巴分词
import
jieba
import
jieba
.analys
sort浅忆
·
2020-08-19 18:53
python学习
python
python结巴分词以及词频统计实例
import
jieba
import
jieba
.analys
sort浅忆
·
2020-08-19 18:53
python
将博客搬至CSDN
python分析微信好友签名分析
当前其实有不少工具能够实现我们的目的,在例子中,我采用了
jieba
来进行分词,用wordcloud来生成对应的词云,用snownlp来分析对应的情绪。关于这三种
harleylau
·
2020-08-19 17:41
python
微信
综合应用,
jieba
,去标点,分词保存,统计,删词,输出
import
jieba
fp1=r'D:/python/a.txt'outph=r'D:/python/out.txt'f=open(fp1,'r',encoding='utf-8')txt=f.read
adasdsa213231
·
2020-08-19 16:05
统计文档中前5个高频词个数并输出
import
jieba
ls="中国是一个伟大的国家,是一个好的国家"print('原始文档为:',ls)counts={}#定义统计字典words=
jieba
.lcut(ls)print('分好的词组为
adasdsa213231
·
2020-08-19 16:05
作业练习P194,
jieba
应用,读取,分词,存储,生成词云,排序,保存
import
jieba
#第一题txt='Python是最有意思的编程语言'words=
jieba
.lcut(txt)#精确分词words_all=
jieba
.lcut(txt,cut_all=True)
adasdsa213231
·
2020-08-19 16:05
Python | 中文分词总结
一,
Jieba
对于结巴而言,使用的人比较多,支持三种分词模式,繁体分词,自定义词典,MIT授权协议。
ZDJ_csdn
·
2020-08-19 16:03
python
Python 结巴分词——自然语言处理之中文
分词器
jieba
分词算法使用了基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能生成词情况所构成的有向无环图(DAG),再采用了动态规划查找最大概率路径,找出基于词频的最大切分组合,对于未登录词,采用了基于汉字成词能力的
Xylon_
·
2020-08-19 16:58
Python
Python自动化
python生成词云图
import
jieba
importwordcloudimportmatplotlib.pyplotaspltimportcv2#读取的文件夹test=open('i:/test.txt','r',encoding
VictoryKingLIU
·
2020-08-19 16:12
Python
(2019.11.18已解决)NotImplementedError:
jieba
: parallel mode only supports posix system
posixsystem可移植操作系统接口(PortableOperatingSystemInterface,POSIX)是IEEE为要在各种UNIX操作系统上运行软件,而定义API的一系列互相关联的标准的总和,正式称呼为IEEEStd1003,国际标准名称为ISO/IEC9945.其中,X表明其对UnixAPI的传承。Linux与WindowsLinux基本上逐步实现了POSIX兼容,但并没有参加
Quant_Learner
·
2020-08-19 16:33
#
NLP
玩转Python :获取微信好友个性签名生成词云
运行结果:需要用到的库itchat、matplotlib、re、wordcloud、
jieba
。
Stone_石头
·
2020-08-19 16:54
学习Python
Python词频统计导入TXT,创建词云和词频数据可视化
现在我把我的代码分享给大家:importcodecsimport
jieba
fromcollectionsimportCounterimportmatplotlib.pyplotaspltfromwordcloudimportWordCloudimportimageiod
坚哥哥不是你大爷
·
2020-08-19 16:29
大数据之数据可视化
【实例】Python制作微信好友词云图
image模块fromwordcloudimportWordCloud,ImageColorGeneratorimportmatplotlib.pyplotaspltimportitchat,re,io,
jieba
im
風月长情
·
2020-08-19 16:23
#
Python爬虫
Python玩转微信 个性签名生成词云图
运行如下代码之前,将下图的wechat.jpg放入F盘下,需安装itchat、
jieba
、matplotlib,numpy和wordcloud这些库。
zhonglixianyun
·
2020-08-19 16:13
python
Python 利用nltk,
jieba
库统计词频并导入csv文件
:https://pan.baidu.com/s/10XJiJtzjhVauGJ8vtyxDIQ提取码:g65t这是一段女装差评文本,我们需要统计词频并写入csv文件:importnltkimport
jieba
fromnltk.corpusimportstopwordsimportreimportpandasa
tsing_9521
·
2020-08-19 16:24
python
入门
数据分析
Lucene Solr 811
文章目录solrlucene倒排索引实际举例luceneAPI介绍创建索引新建maven项目,添加依赖创建测试类,添加以下代码查看索引运行luke查看文档指定
分词器
,并测试分词查询测试从索引查询solr
Wanght6
·
2020-08-19 16:29
全文检索
Lucene
Solr
中文分词
倒排索引
ik分词器
python 玩转微信(一)
好友性别比例好友省份分布好友签名代码部分importitchatimportioimport
jieba
importnumpyasnpimportmatplotlib.pyplotaspltimportreimportPIL.ImageasImagefrompyechartsimportPie
supramolecular
·
2020-08-19 15:20
Python
微信
统计水浒传完整姓名前十位:
jieba
库应用,python编程
直入主题,我们需要用到
jieba
库的一些函数,这个python库是国内大神编写的。
才疏学浅的ksks14
·
2020-08-19 15:39
使用python抓取微信好友个性签名并形成词云(itchat;wordcloud)
我主要参考这篇文章进行实践:点击打开链接python版本:3.5首先整体步骤分为两步:第一步,抓取好友个性签名,这一步主要依靠itchat实现;第二步,分词并形成词云,主要依靠
jieba
和wordcloud
hhw9307
·
2020-08-19 15:31
自娱自乐
用wordcloud来分析QQ群的聊天记录
#coding:utf-8"""author:@"""importreimportmatplotlib.pyplotaspltimport
jieba
fromwordcloudimportWordCloud
lion_zhou
·
2020-08-19 06:33
python
elasticsearch 中term与match区别
refund_address":"上海市"}}}GETmall3/mall_info3/_count{"query":{"match":{"refund_address":"上海市"}}}term是代表完全匹配,即不进行
分词器
分析
穿过佛罗伦萨的风
·
2020-08-19 06:01
数据
ModuleNotFoundError: No module named 'sklearn.feature_extraction'; 'sklearn' is not a package
File"sklearn.py",line4,infromsklearn.feature_extraction.textimportTfidfVectorizerFile"/home/dong/Project/
jieba
-master
yiyiyaya0921
·
2020-08-19 06:07
elasticsearch 索引重建(Rebuild)
但是如果想修改已存在字段的属性(修改
分词器
、类型等),目前ES是做不到的。如果确实存在类似这样的需求,只能通过重建索引的方式来实现。
wolvesqun
·
2020-08-19 05:06
python:
jieba
库
一、基本分词函数
jieba
.lcut方法接受三个输入参数:①需要分词的字符串;②cut_all参数用来控制是否采用全模式;③HMM参数用来控制是否使用HMM模型。
face丶
·
2020-08-19 05:03
第三方模块
中文文本情感分析(word2vec)
fromsklearn.cross_validationimporttrain_test_splitfromgensim.models.word2vecimportWord2Vecimportnumpyasnpimportpandasaspdimport
jieba
fromsklearn.externalsimportjoblibf
勤奋的郑先生
·
2020-08-19 05:04
Python中文语料批量预处理手记
2Python中文语料批量预处理手记3自然语言处理手记4Python中调用自然语言处理工具HanLP手记5Python中结巴分词使用手记语料预处理封装类:#coding=utf-8importosimport
jieba
importsysimportreimporttimeimport
jieba
.possegaspsegsys.path.a
weixin_34364071
·
2020-08-19 05:20
Python-贝叶斯实战垃圾邮件过滤(大量数据)
Github:github.com/yingzk/MyML博客:www.yingjoy.cn/环境Python3.6.2
jieba
0.39数据8000封邮件数据正常邮件:7063封垃圾邮件:7775封测试邮件
weixin_34320724
·
2020-08-19 05:41
Python中文语料批量预处理手记
jieba
阅读目录手记实用系列文章:语料预处理封装类:执行结果:手记实用系列文章:1结巴分词和自然语言处理HanLP处理手记2Python中文语料批量预处理手记3自然语言处理手记4Python中调用自然语言处理工具HanLP手记5Python中结巴分词使用手记语料预处理封装类:123456789101112131415161718192021222324252627282930313233343536373
weixin_33872660
·
2020-08-19 04:54
MySQL 5.7 中文全文检索使用教程
在MySQL5.7.6之前,全文索引只支持英文全文索引,不支持中文全文索引,需要利用
分词器
把中文段落预处理拆分成单词,然后存入数据库。
weixin_30932215
·
2020-08-19 04:59
python 结巴分词(
jieba
)详解
文章转载:http://blog.csdn.net/xiaoxiangzi222/article/details/53483931
jieba
“结巴”中文分词:做最好的Python中文分词组件"
Jieba
weixin_30621711
·
2020-08-19 04:02
python
操作系统
数据结构与算法
上一页
59
60
61
62
63
64
65
66
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他