E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba
【3-1】实验——hanlp和
jieba
常用方法
一.下载pyhanlp1.打开conda使用如下语句condainstall-cconda-forgeopenjdkpython=3.8jpype1=0.7.0-ypipinstallpyhanlp附:提供了一个安装教程indexof/book/intro_nlp/安装包/-蝴蝶效应网盘(hankcs.com)二.安装中的特殊情况2.(特殊情况)下载完成后打开jupyternotebook后,使用
铁盒薄荷糖
·
2024-01-30 17:59
知识图谱实战6+3天
数据库
自然语言处理
NLP学习------HanLP使用实验
我跟据词向量的作者[6]所使用的分词工具来分词,会比不同工具(
jieba
)的效果要好,因为都是同一模式的分词,分出来的词应该都会存在于大型语料库中。
lanlantian123
·
2024-01-28 06:51
jieba
库
对这句话来说,要提取其中的单词(词语),非常困难,因为中文词语之间没有类似英文的空格等形式的分隔符,因此要实现中文的词语获取,就要依靠
jieba
库来实现。
D D D D C
·
2024-01-27 19:54
Python
python
使用 Spark MLlib 使用
jieba
分词训练中文分类器
_import
jieba
.{
Jieba
Segmenter,WordPunctTokenizer}objectChineseTextClas
DreamNotOver
·
2024-01-27 07:45
spark-ml
中文分类
集群
没有服务器也能做的推荐算法思路
思路一
jieba
分词,将搜索自然语言分解成名词,动词,形容词将名词部分转化为拼音(可以使用PyPinyin库),建立一个拼音库,模拟用户拼错的可能性,再根据拼音匹配正确的名词(匹配的库来自正确的产品库)
浪里摸鱼
·
2024-01-25 23:04
推荐算法
算法
python
python如何使用
jieba
分词
jieba
是一个非常流行的中文分词工具,为Python开发者提供了强大的分词支持。一、
jieba
分词的安装与导入首先,你需要安装
jieba
库。
Dxy1239310216
·
2024-01-25 19:03
Python
python
开发语言
自然语言处理
nlp
自然语言处理--概率最大中文分词
常用的中文分词工具包括
jieba
、HanLP等。二、算法描述本文实现概率最大中文分词算法,具体算法描述如
Java之弟
·
2024-01-24 12:03
自然语言处理
自然语言处理
中文分词
人工智能
Python学习:
jieba
库安装
直接用pipinstall
jieba
安装出错解决办法:改用国内镜像(清华的)安装方法:win+r,输入cmd,然后输入pipinstall-ihttps://pypi.tuna.tsinghua.edu.cn
文曲小谢
·
2024-01-24 12:24
jieba
.net使用NuGet管理器安装后初始化TfidfExtractor对象时报错
在引用安装
jieba
.net后,引用的Resources下只有如图几个文件导致初始化TfidfExtractor时报错,报找不到Couldnotfindfile'E:\\TZKJNet\\robotindustry
吱吱喔喔
·
2024-01-23 18:40
jieba
jieba.net
NLP深入学习(七):词向量
文章目录0.引言1.什么是词向量2.Word2Vec2.1介绍2.2例子3.参考0.引言前情提要:《NLP深入学习(一):
jieba
工具包介绍》《NLP深入学习(二):nltk工具包介绍》《NLP深入学习
Smaller、FL
·
2024-01-23 07:46
NLP
自然语言处理
学习
人工智能
nlp
Python全国计算机二级考试基本操作题
#注意:请不要修改其他已给出代码import______txt=input("请输入一段中文文本:")______print("{:.1f}".format(len(txt)/len(ls)))考点:
jieba
北方有你.
·
2024-01-21 11:09
Python
python
开发语言
datawhale 第三章-模型架构
1.2分词的三种粒度词粒度在英文等语言中有着天然的空格分隔,但是对于中文等语言可能需要额外的分词算法来进行处理(比如中文的
jieba
分词)词粒度的缺点:词粒度的词表由于长尾效应可能会非常大,并且稀有词往往很难学好
fan_fan_feng
·
2024-01-21 08:41
人工智能
php中文搜索工具,Laravel 下 TNTSearch+
jieba
-PHP 实现中文全文搜索
TNTSearch+
jieba
-php这套组合可以在不依赖第三方的情况下实现中文全文搜索;特别的适合博客这种小项目;开启php扩展pdo_sqlitesqlite3mbstring开始:看到https:
weixin_39883129
·
2024-01-21 01:09
php中文搜索工具
php
jieba
,laravel下TNTSearch+
jieba
-php实现中文全文搜索
上篇文章我们简单介绍了全文搜索的方案;全文搜索和中文分词;TNTSearch+
jieba
-php这套组合可以在不依赖第三方的情况下实现中文全文搜索;特别的适合博客这种小项目;我新建一个项目用于演示;laravelnewtntsearch
weixin_39988331
·
2024-01-21 01:09
php
jieba
php分词搜索thinkphp,TP5+TNTSearch实现中文分词搜索
安装composerrequireteamtnt/tntsearchcomposerrequirefukuball/
jieba
-php环境要求PHP>=7.1PDOPHPExtensionSQLitePHPExtensionmbstringPHPExtension
洪荒行者
·
2024-01-21 01:09
php分词搜索thinkphp
php搜索分词处理(
jieba
分词)
做搜索分词处理的时候,有几个常用的分词方法,
jieba
分词,scws分词,
jieba
分词是比较常用的分词开启php扩展pdo_sqlitesqlite3mbstring1.先compose安装一下composerrequirevanry
ouxiaoxian
·
2024-01-21 01:39
laravel
php
分词
搜索
php
TNTSearch 轻量级全文索引 + 中文分词
这里我选用的是fukuball/
jieba
-php选它的原因也是轻量,也不需要过多的依
weixin_34419326
·
2024-01-21 01:39
php
大数据
数据库
laravel(7.0)下tntsearch(2.0)和
jieba
-php使用
中文就需要
jieba
-php,但苦于tntsearch的驱动已经跟进laravel7,但
jieba
并没有跟进,致使我参考TNTSearch轻量级全文索引+中文分词一直报错,
Ben Hooper
·
2024-01-21 01:38
PHP
php
lavarel
sqlite
【迅搜19】扩展(二)TNTSearch和
Jieba
PHP方案
扩展(二)TNTSearch和
Jieba
PHP方案搜索引擎系列的最后一篇了。既然是最后一篇,那么我们也轻松一点,直接来看一套非常有意思的纯PHP实现的搜索引擎及分词方案吧。
码农老张Zy
·
2024-01-21 01:38
NLP深入学习(二):nltk 工具包介绍
句子和单词标记化(tokenization)3.移除停用词(Stopwords)4.词干提取5.词性标注6.命名实体识别7.理解同义词集8.频率分布9.情绪分析10.参考0.引言前情提要:《NLP深入学习(一):
jieba
Smaller、FL
·
2024-01-20 18:00
NLP
自然语言处理
学习
人工智能
nlp
中文分词
NLP深入学习(一):
jieba
工具包介绍
文章目录1.
jieba
介绍2.分词3.添加自定义词典3.1添加词典3.2调整词典4.关键词提取4.1基于TF-IDF算法的关键词抽取4.2基于TextRank算法的关键词抽取5.词性标注6.参考1.
jieba
Smaller、FL
·
2024-01-20 18:00
NLP
自然语言处理
学习
nlp
NLP深入学习(三):TF-IDF 详解以及文本分类/聚类用法
文章目录0.引言1.什么是TF-IDF2.TF-IDF作用3.Python使用3.1计算tf-idf的值3.2文本分类3.3文本聚类4.参考0.引言前情提要:《NLP深入学习(一):
jieba
工具包介绍
Smaller、FL
·
2024-01-20 18:00
NLP
自然语言处理
学习
tf-idf
nlp
人工智能
NLP深入学习(四):贝叶斯算法详解及分类/拼写检查用法
文章目录0.引言1.什么是贝叶斯定理2.贝叶斯常见实用场景3.贝叶斯用于垃圾邮件分类4.基于贝叶斯算法实现拼写检查器5.参考0.引言前情提要:《NLP深入学习(一):
jieba
工具包介绍》《NLP深入学习
Smaller、FL
·
2024-01-20 18:00
NLP
算法
自然语言处理
学习
nlp
NLP深入学习(五):HMM 详解及字母识别/天气预测用法
文章目录0.引言1.什么是HMM2.HMM的例子2.1字母序列识别2.2天气预测3.参考0.引言前情提要:《NLP深入学习(一):
jieba
工具包介绍》《NLP深入学习(二):nltk工具包介绍》《NLP
Smaller、FL
·
2024-01-20 18:57
NLP
自然语言处理
学习
人工智能
nlp
中文词向量训练-案例分析
用于解析XML,将XML的wiki数据转换为text格式importloggingimportos.pathimportsysfromgensim.corporaimportWikiCorpusimport
jieba
import
jieba
.ana
Algorithm_Engineer_
·
2024-01-19 22:26
基础知识和深度学习
自然语言处理
word2vec
jieba
库里的字典常用的各词性
本文详细介绍了
jieba
库里的字典中常用的各词性一常用词性介绍1.名词(n):用于指示人、事、物或抽象概念的词汇。1.1人名(nr)在
jieba
库中,词性标注中的nr表示人名。
Algorithm_Engineer_
·
2024-01-19 22:56
python
python期末:常见模块的使用及计算生态
A.
Jieba
B.SnowNLPC.LosoD.TensorFlow4.以下关于
illusionbigdata
·
2024-01-19 16:11
python
python
开发语言
hanlp,pkuseg,
jieba
,cutword分词实践
总结:只有
jieba
,cutword,baidulac成功将色盲色弱成功分对,这两个库字典应该是最全的hanlp[持续更新中]https://github.com/hankcs/HanLP/blob/doc-zh
回到工作狂状态
·
2024-01-19 13:08
分词
NLP
基于网络爬虫的微博热点分析,包括文本分析和主题分析
为了更好地理解微博热点话题,我们采用LDA主题分析方法,结合
jieba
分词工具将文本分割成有意义的词语。此外,我们还使用snownlp情感分析库来评估微博热点话题的情感倾向。
叫我:松哥
·
2024-01-19 09:15
爬虫
信息可视化
python
网络爬虫
Python(wordcloud):根据词频信息(xlsx、csv文件)绘制词云图
二、安装并引入相关的库1、安装相关的库pipinstall
jieba
pipinstallmatplotlibpipinstallwordcloudpipinstallnumpypipinstallImagepipinstallpandas2
十八只兔
·
2024-01-18 15:22
Python
python
pandas
wordcloud
词云图
激光雷达植被叶片入射角效应/地基高光谱激光雷达植被叶片入射角效应
2.Poullain模型3.KaiTan等多项式模型4.Kaasalainen等提出的改进的与波长相关的Poullain模型5.
JieBa
i等提出入射角效应满足同时与波长和入射角大小相关的改进的Poullain
B博士
·
2024-01-18 14:29
激光雷达
遥感
激光雷达
入射角效应
植被叶片
Poullain模型
Beckmann定律
Python文本向量化入门(四):中文词袋问题
因为之前的学习中发现Scikit-learn的CountVectorizer不支持中文分词,所以在本篇文章中,我们将介绍如何使用
jieba
分词和Scikit-learn的CountVectorizer进行中文文本的特征提取
Dxy1239310216
·
2024-01-17 17:04
Python
python
开发语言
毕业设计:基于python微博舆情分析系统+可视化+Django框架 K-means聚类算法(源码)✅
1、项目介绍技术栈:Python语言+Django框架+数据库+
jieba
分词+scikit_learn机器学习(K-means聚类算法)+
vx_biyesheji0001
·
2024-01-15 14:44
biyesheji0001
biyesheji0002
毕业设计
python
算法
课程设计
大数据
毕业设计
django
kmeans
2018-10-27
Python文本词频统计:英文文本需将字母变小写并将特殊字符和标点符号替换成空格再提取单词,而中文文本需先用
jieba
库分词。
5c8e2b8217ae
·
2024-01-15 12:32
【迅搜16】SCWS分词(一)概念、词性、复合分词等级
即使你将来要用
Jieba
分词或者IK分词,它们所有的原理和SCWS都是大差不差的。其实之前已经说过一点分词的问题了,这回咱们再来详细的说说。中文分词搜索引擎最大的特点
码农老张Zy
·
2024-01-15 03:11
【迅搜17】SCWS分词(二)自定义字典及分词器
而对于分词器来说,不管是SCWS还是现在流行的IK、
Jieba
,其实概念方面都是差不多的。比如说它们都需要字典来做为分词的依据,也会有停用词库这一类的附加字典。
码农老张Zy
·
2024-01-15 03:11
软件测试|如何使用Python取句中中英文内容
准备工作我们可以使用Python自带的re模块或者借助
jieba
、nltk库来实现该功能,
jieba
以及nltk是第三方库,所以我们需要通过命令来安装这两个库,命令如下:pipinstallj
测试萧十一郎
·
2024-01-14 20:02
软件测试
python
开发语言
功能测试
软件测试
自动化测试
程序人生
职场和发展
自然语言处理笔记
文章目录情感词典中文分词情感词典英文的情感词典有:LIWC,SentiWordNet等中文的情感词典有:NTUSD,正文褒贬词典TSING,知网HowNet等中文分词中文分词的工具有:
jieba
(核心算法是张华平的
zoujiahui_2018
·
2024-01-14 09:37
#
自然语言处理
自然语言处理
笔记
人工智能
Python分词介绍
在Python中,有许多分词工具可以使用,其中最常用的是
jieba
分词。
jieba
分词是一个基于Python的中文分词库,它可以将中文文本拆分为单独的词,以便进行后续的分析和处理。
Dxy1239310216
·
2024-01-13 16:27
Python
python
开发语言
[源码和文档分享]基于python的B站弹幕数据分析(爬虫+可视化)
2环境的安装本项目实在pycharm中实现,使用到的第三方库有requests,bs4,pandas,
jieba
.posseg,py
ggdd5151
·
2024-01-13 02:37
python个性化词云图案绘制
#coding=gbkimport
jieba
import
jieba
.analysefromwordcloudimportWordCloud,ImageColorGeneratorimportmatplotlib.pyplotaspltimportmatplotlibasmpl
loong_XL
·
2024-01-11 18:32
python
知识点
词云可视化(摘录)
1号词云:《葛底斯堡演说》黑色背景词云(4行代码上手)美化词云2号词云:面朝大海,春暖花开(配置词云参数)常用参数从外部文件读入文本3号词云:乡村振兴战略中央文件(句子云)中文分词中文分词第三方模块`
jieba
Sparky*
·
2024-01-11 08:34
廖雪峰爬虫笔记
ES7.9.3整合结巴分词插件
ES7.9.3安装centos7安装ES-CSDN博客1.下载elasticsearch-
jieba
-plugin下载地址:GitCode-开发者的代码家园我使用elasticsearch-
jieba
-plugin7.4.2
hahaha 1hhh
·
2024-01-11 07:06
elasticsearch
jieba
中文分词、去停用词、发现新词
中文分词目前使用过snownlp、
jieba
,简单对比下,
jieba
的默认模识更好用,snownlp分的过细了。
废柴社
·
2024-01-11 06:06
基于Python爬虫的B站弹幕可视化
介绍这是一个基于Python的B站弹幕可视化项目,主要使用了pythondjango、requests、
jieba
等库。
沐知全栈开发
·
2024-01-10 14:45
python
爬虫
开发语言
Python采集微博评论做词云图
Python3.10Pycharm第三方模块使用:importrequests>>>pipinstallrequestsimportwordcloud>>>pipinstallwordcloudimport
jieba
魔王不会哭
·
2024-01-09 22:28
python
python
开发语言
pycharm
学习
大数据毕业设计:新闻情感分析系统 舆情分析 NLP 机器学习 爬虫 朴素贝叶斯算法(附源码+论文)✅
1、项目介绍技术栈:Python语言、django框架、vue框架、scrapy爬虫框架、
jieba
分词、nlp算法、爬虫抓取机器学习、朴素
vx_biyesheji0001
·
2024-01-08 08:20
biyesheji0002
毕业设计
biyesheji0001
大数据
课程设计
自然语言处理
python
机器学习
毕业设计
爬虫
使用
jieba
库进行中文分词和去除停用词
jieba
.lcut
jieba
.lcut()和
jieba
.lcut_for_search()是
jieba
库中的两个分词函数,它们的功能和参数略有不同。
一壶浊酒..
·
2024-01-07 17:53
自然语言处理
中文分词
自然语言处理
Python(wordcloud):根据文本数据(.txt文件)绘制词云图
二、相关库的介绍1、安装相关的库pipinstall
jieba
pipinstallmatplotlibpipinstallwordcloudpipinstallnumpypipinstallImage2
十八只兔
·
2024-01-05 17:24
Python
python
词云图
数据可视化
wordcloud
使用TF-IDF对文本集中的单篇文本制作词云
(1)导入
Jieba
分词工具importosimport
jieba
(2)文本
MilkLeong
·
2024-01-05 11:43
自然语言处理
python
机器学习
sklearn
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他