E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba分词器
Python批量读取公司年报并进行情感分析--代码实战
该文章代码均在jupyterNotebook中运行,且已安装相关包import
jieba
importosimportcsv#读取预定的情感词列表defread_dict(file):text=open(
青风learing
·
2020-08-14 21:56
#
大邓Python课程笔记
Python:词云生成
今天刚刚学习到的Python词云生成import
jieba
importmatplotlib.pyplotaspltfromwordcloudimportWordCloudtext=open(r'.
weixin_43997135
·
2020-08-14 21:42
pycharm
python基于wordcloud和
jieba
库的词云展示
wordcloud简介 wordcloud库是python非常优秀的词云展示第三方库。词云以词语为基本单位更加直观和艺术的展示文本。安装wordcloudpipinstallwordcloudpython打包命令F:\PycharmProjects\MOOC\day4>pyinstaller-iRose.ico-Frose.py常用方法w=wordcloud.WordCloud()方法描述w.g
资深砖家
·
2020-08-14 21:05
python
python基础
python:2019新年贺词的词云制作以及基于TF-IDF的关键词提取
2019新年贺词下载python词云制作本文所使用的python包为
jieba
/WordCloud/matplotlibimport
jieba
fromwordcloudimportWordCloudimportmatplotlib.pyplotasplt
海军上将光之翼
·
2020-08-14 21:29
机器学习
编程
python
词云图
TF-IDF
python
jieba
Wordcloud
NLP基础处理流程&Torch版TFIDF&Ngram
importnumpyasnpimporttorchimportreimport
jieba
importpandasaspdfromtqdmimporttqdmimportos.pathfromosimportlistdirimporttorchfromIPython.displayimportdisplay
张一爻
·
2020-08-14 21:20
python代码整合
python学习笔记——wordCloud生成《三国演义》出现次数最多的50个名字
jieba
分词参考:https://github.com/fxsjy/
jieba
词云参考:https://github.com/amueller/word_cloud其他注意1.调用open()函数时,
caimingAA
·
2020-08-14 21:10
机器学习
运用
jieba
库分词并生成词云库。
import
jieba
txt=open("C:\\Users\\Administrator\\Desktop\\流浪地球","r",encoding='utf-8').read()words=
jieba
.lcut
weixin_34367257
·
2020-08-14 21:21
中文词频统计与词云生成
3.安装并使用
jieba
进行中文分词。pipinstall
jieba
import
jieba
jieba
.lcut(text)4.更新词库,加入所分析对象的专业词汇。
weixin_30340617
·
2020-08-14 20:38
Python+
jieba
生成词云
描述:使用Python和
jieba
生成词云。
芋艿ashes
·
2020-08-14 20:05
Python相关
jieba
分词之二、cut
jieba
.posseg.cut(sentence)是initialize操作之后分词程序的入口__cut_internal(sentence)函数内部定义了四个正则表达式re_han=re.compile
WeiHaixin931
·
2020-08-14 20:22
jieba分词
使用
jieba
对词语进行分词并进行统计
importpandasaspdimportpymysqlfromsqlalchemyimportcreate_enginefromcollectionsimportCounterimport
jieba
.analyseimport
jieba
importtimeimportpynlpirimportdatetimedefgetYesterday
简@
·
2020-08-14 20:22
python3
jieba
分词+wordcloud词云
系统:deepinpython:python3.6IDE:pycharm文章github:https://github.com/Derek520/NLPimport
jieba
import
jieba
.analysefrommatplotlibimportpyplotaspltfromscipy.miscimportimreadfromwordcloudimportWordCloud
Derek_YYL
·
2020-08-14 20:33
NLP
Python 文本挖掘:
jieba
中文分词和词性标注
最近NLP新词发现及情感倾向性分类任务,需要用到分词,查找了下,python,
jieba
分词,貌似用起来还可以,效果也不差,还没在python里试中科院的分词。
无限大地NLP_空木
·
2020-08-14 20:01
python
包
Python项目实战:通过
jieba
分词统计招聘大数据帮你找工作.md
前言:一切不经过项目验证的代码都是耍流氓,今天我们就通过一个简单的招聘网站的数据归档(数据来源请参考我的上一篇文章)进行当前热门岗位的大数据分析,最后以wordcloud进行显示。帮你分析一名合格的Python从业者到底要掌握什么样的技能。当然,这篇文章说是大数据是有点严重夸张的,看官勿深纠。相关代码下载地址请见文末整理归档文件上一篇文章中,我们采集了拉勾网的岗位数据,保存到了代码目录的./dat
明哥看世界
·
2020-08-14 19:44
python
明哥陪你学Python
python
python读写txt文件,并用
jieba
库进行中文分词
其中用到的matplotlib库,主要是用来绘图;
jieba
库,对文字进行分词;wordcloud库,构建词云。
送人亲
·
2020-08-14 19:57
python
中文文本处理总结(读取文本、文本预处理、分词、去除停用词)
中文文本处理总结(读取文本、文本预处理、分词、去除停用词) 针对前面学习的Python读取文本内容、中文文本预处理、利用
jieba
对中文进行分词、中文分词后去除停用词、调整
jieba
分词结果,我们已经掌握了中文文本处理的各个步骤的方法
宋凯-SK
·
2020-08-14 19:17
Python部分第三方库简要介绍及近期Python入门学习笔记
保留字基本数据类型整数类型浮点数类型复数类型字符串类型字符串的格式化组合数据类型集合类型序列类型元组类型列表类型字典类型文件类型文件的几种读入方法一维数据与二维数据一维数据的处理二维数据的处理一些程序设计的思想Python库的使用Python配置镜像基础常见Python库Turtle库Time库Random库Os库Pyinstaller库
Jieba
MahoChan
·
2020-08-14 19:26
Python
python中文
分词器
-
jieba
分词器
详解及wordcloud词云生成
jieba
分词
jieba
分词支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析全模式,把句子中所有的可以成词的词语都扫描出来,速度非常快,但是不能解决歧义搜索引擎模式,在精确模式的基础上,
!一直往南方开.
·
2020-08-14 19:43
Python
Python数据可视化编程 - 词云生成并保存(
jieba
+WordCloud)
author:dell"""#=============================================================================#步骤:#分割aaa=
jieba
.cut
Crystal X.
·
2020-08-14 19:03
Python
Python数据可视化
python 结巴分词,清洗,计数以及绘制词云图
1.安装所需要的包,相信大家都知道pipinstall加要安装的包,记得要重复一次才算是安装好的,导入如图所有包:"""importmatplotlib.pyplotasplt#数学绘图库import
jieba
qq_42232687
·
2020-08-14 19:02
基础的分词算法实现 前向最大匹配、后向最大匹配、维特比算法(viterbi)
目录1.前向最大匹配(forward-maxmatching)2.后向最大匹配(backward-maxmatching)3.考虑语义维特比算法(viterbi)分词工具
Jieba
分词https://github.com
不凡不弃
·
2020-08-14 19:56
自然语言处理
NLP初学-Word Segmentation(分词)
现在有很多现成的分词工具:
Jieba
分词、SnowNLP、哈工大LTP、HanNLP等。具体算法方面主要是最大匹配(MaxMatching)和考虑语义(lncorporateSemantic)。
GlassySky0816
·
2020-08-14 19:47
NLP初学
python可视化——词云
本文采用
jieba
获取关键词并绘制成词云。
铭珏
·
2020-08-14 18:14
NLP基础知识
IK扩展词和停用词热更新
IK作为elasticsearch的
分词器
,提供了多种配置扩展词和停用词的功能。这里主要记录如何进行扩展词/停用词热更新配置的其中一种方法,并未对IK的源码进行改动。
s3v1n
·
2020-08-14 18:46
elasticsearch
【实例】python
jieba
词性标注 并导出txt
>>>import
jieba
.possegaspseg>>>f=open('E:/西方哲学史.txt','r')f=f.read()>>>words=pseg.cut(f)>>>forwinwords:
神创
·
2020-08-14 18:01
python
txt
jieba
【实例】Python 用
jieba
分词 导出txt(干货)
--------------------------------------------------------------------------------------完全的菜鸟,琢磨了好久==,终于两天时间成功捣鼓出来了,参考了很多页面,翻来倒去所有的试过都没成功==----------------------------------我是分割线------------------------
神创
·
2020-08-14 18:01
python
jieba
cmd
txt
pyinstaller打包问题,关于skleran
-p可以直接引入某个python模块,这样对于一写自己编写的功能模块可以直接在打包时用这个参数导入3.
jieba
分词模块导入时会缺少dict.txt,按照路径添加即可4.pyinstaller
nlite827109223
·
2020-08-14 18:22
python
基于python的词云生成-中文词云(指定词云形状)
基于python的词云生成(二)1.简介 本文是在基于python的词云生成(一)的基础上,进一步对云词进行编写,本文还使用了
jieba
分词对中文进行分词处理,以做出更好的效果。
菊子皮
·
2020-08-14 18:31
Basic
Python
自然语言处理爱好者
基于python中
jieba
包的中文分词中详细使用(二)
文章目录基于python中
jieba
包的中文分词中详细使用(二)01.前言02.关键词提取02.01基于TF-IDF算法的关键词提取02.02词性标注02.03并行分词02.04Tokenize:返回词语在原文的起止位置
菊子皮
·
2020-08-14 18:31
自然语言处理爱好者
Basic
Python
python实现词云效果
绘制图片是也通过第三方模块pillow和matplotlib实现的,因此需要安装matplotlib和wordcloud模块pipinstallwordcloudpipinstallmatplotlibpipinstall
jieba
幸福丶如此
·
2020-08-14 18:53
python
python中结巴分词快速入门
全几天看到高手下了个
jieba
分词快速入门的东西,希望关注我博客的人也能看得到https://github.com/SalutLyndon/hello-world/blob/master/中文自然语言处理基本流
旭旭_哥
·
2020-08-14 17:39
python编程
python 自然语言处理(三)获取词性
获取词性import
jieba
.possegaspsgs='我想和女朋友一起去北京故宫博物院参观和闲逛。'
luoganttcc
·
2020-08-14 17:08
自然语言处理
Python基于
jieba
的中文词云
今日学习了python的词云技术fromosimportpathfromwordcloudimportWordCloudimportmatplotlib.pyplotaspltd=path.dirname(__file__)text=open(path.join(d,"data//constitution.txt")).read()#步骤3-2:设置一张词云图对象wordcloud=WordClo
雨轩恋i
·
2020-08-14 17:35
Python高阶
NLP-文本处理的流程及实现(一)
一般经过这几个步骤:原始文本>分词>清洗>标准化>特征提取>建模1:分词分词的常用工具:
Jieba
分词https://github.com/fxsjy/
jieba
SnowNLPhttps://github.com
路飞遇上娜美
·
2020-08-14 17:27
NLP
Python实现
jieba
对文本分词并写入新的文本文件,然后提取出文本中的关键词
Python实现
jieba
对文本分词并写入新的文本文件,然后提取出文本中的关键词思想先对文本进行读写操作,利用
jieba
分词对待分词的文本进行分词,然后将分开的词之间用空格隔断;然后调用extract_tags
村雨遥
·
2020-08-14 17:27
Python
NLP
隐马尔科夫模型HMM(一) -- 模型介绍
目前在工作中使用到了
jieba
分词,主要是对文章进行切词,在深入理解
jieba
切词原理的时候,发现其采用了隐马尔科夫模型HMM,因此对HMM进行了研究,这里就自己学习到的知识进行记录。
thinkhui
·
2020-08-14 17:39
机器学习
HMM
隐马尔科夫模型
观察序列
观测独立假设
齐次马尔科夫假设
python实现
jieba
库分词制作词云
《老人与海》是我最喜爱的一部外国名著,该作围绕一位老年古巴渔夫,与一条巨大的马林鱼在离岸很远的湾流中搏斗而展开故事的讲述。尽管海明威笔下的老人是悲剧性的,但他身上却有着尼采"超人"的品质,泰然自若地接受失败,沉着勇敢地面对死亡,这些"硬汉子"体现了海明威的人生哲学和道德理想,即人类不向命运低头,永不服输的斗士精神和积极向上的乐观人生态度。现在我们通过python来分析第一章中出现最多的单词,通过j
dfxe8023
·
2020-08-14 17:58
docker 部署 elasticsearch 并加载ik
分词器
dockerpulldocker.elastic.co/elasticsearch/elasticsearch:6.7.1启动esdockerrun-eES_JAVA_OPTS="-Xms256m-Xmx256m"-d-p9200:9200-p9300:9300--namees-e"discovery.type=single-node"docker.elastic.co/elasticsearch
Tang__Vi
·
2020-08-14 16:36
docker
python自然语言处理
user/bin/python#-*-coding:utf-8-*-'''自然语言处理实现的功能有:1.文件的读取;2.使用
jieba
分词;3.用分词结果画出词云;4.用分词结果画柱状图;5.用分词结果画饼状图
成_蹉_跎
·
2020-08-14 16:34
python
用Wordcloud生成中文词云时遇到的问题
用Wordcloud生成中文词云时遇到的问题import
jieba
importwordcloudf=open('ciyun.txt',encoding='utf-8')t=f.read()f.close
chenbiyun940419
·
2020-08-14 16:03
Python入门
“结巴”中文分词简介
jieba
jieba
“结巴”中文分词:做最好的Python中文分词组件"
Jieba
"(Chinesefor"tostutter")Chinesetextsegmentation:builttobethebestPythonChinesewordsegmentationmodule.ScrolldownforEnglishdocumentation
zhangchen
·
2020-08-14 16:36
python
python学习笔记(一)
jieba
模块初探
环境说明:windows7,python27,
jieba
VERSION0.38,pycharm2016.11.简介:支持中文分词,关键字提取,词性标注,自己管理词库等2.安装:方法一:开始->搜索cmd
我心飞翔2015
·
2020-08-14 16:13
python绘制词云(
jieba
+wordcloud+matplotlib)
首先安装如下的第三方库:
jieba
、wordcloud、matplotlibpipinstall
jieba
pipinstallwordcloudpipinstallmatplotlib如果你的使用的是anaconda3
坚哥哥不是你大爷
·
2020-08-14 16:34
大数据之数据可视化
jieba
分词基础
这篇博客写一些结巴分词的基础操作,参考网站http://github.com/fxsjy/
jieba
/blob/master/README.md1.分词我们对“张三是云计算领域的专家”这句话进行分词,如何让分词达到理想化
毅强
·
2020-08-14 16:53
NLP
Docker在centos7中安装及Docker中安装elasticsearch和ik
分词器
说明:如下操作是在公司网络使用代理的情况下记录一.docker安装基于centos71、sudoyumupdate2、sudoyuminstall-yyum-utilsdevice-mapper-persistent-datalvm23、sudoyum-config-manager--add-repohttps://download.docker.com/linux/centos/docker-c
MaBanSheng
·
2020-08-14 16:48
linux
实施
python结巴分词词云图
导入结巴分词fromwordcloudimportWordCloudimport
jieba
#词频计算import
jieba
.analyseasanalysefromscipy.miscimportimreadimportosfromosimportpathimportmatplotlib.pyplotaspltfromPILimportImagefromwordcloudimportWordClo
Jacquelin_1
·
2020-08-14 16:23
结巴分词
出版图书
自然语言处理最基本的功能是词法分析,词法分析的功能主要有:分词分句词语标注词法时态(适用于英文词语)关键词提前(词干提取)由于英文和中文在文化上存在巨大的差异,因此Python处理英文和中文需要使用不同的模块,中文处理推荐使用
jieba
Xy-Huang
·
2020-08-14 16:17
人工智能
Python
Python
jieba
+wordcloud制作词云
但绝大可能是列表,此时需要使用【text=’'.join(list)】这样的方法变成字符串;2.使用
jieba
进行分词,用法可参考:https://blog.csdn.net/reims2046/article
CC_Cynthia
·
2020-08-14 15:38
python中
jieba
分词,并输出词云(基础版)
环境与文件准备环境anaconda+pycharm,已经安装结巴库,wordcloud库,将0001-text.txt,stop_words.txt,dict.txt与新建py文件放到同一文件夹下。0001-text.txt内容如下,直接复制即可国务院办公厅关于发展众创空间推进大众创新创业的指导意见国办发〔2015〕9号各省、自治区、直辖市人民政府,国务院各部委、各直属机构:为加快实施创新驱动发展
青风learing
·
2020-08-14 15:20
本科毕业论文代码
python读取文件,
jieba
分词,posseg标注词性,并写入文件,代码实战
先列出代码如下#-*-encoding=utf-8-*-#定义编码格式import
jieba
.analyseimport
jieba
.possegimport
jieba
importpandasaspd#载入自定义词典
青风learing
·
2020-08-14 15:49
本科毕业论文代码
上一页
63
64
65
66
67
68
69
70
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他