E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Jieba
django-haystack + whoosh +
jieba
实现全文搜索
网站实现全文搜索,并对中文进行分词搜索开发环境:Python3.7Django3.2需求:网站内有商品、求购2个模块,搜索栏输入塑料玩具时,希望优先搜索出匹配塑料玩具的信息,并同时匹配出塑料、玩具等信息,按照匹配度排序。同时当输入玩具塑料或塑料玩巨错别字时,同样能匹配到塑料玩具类的信息。匹配英文大小写分析1.djangoorm的模糊匹配icontains表示Mysql的like,不满足业务分词需求
Vvvvvvv四季
·
2024-02-15 03:16
python笔记——
jieba
库
文章目录一.概述二.
jieba
库使用三.实例一.概述1.
jieba
库概述
jieba
库是一个重要的第三方中文分词函数库,不是安装包自带的,需要通过pip指令安装pip3install
jieba
二.
jieba
Toby不写代码
·
2024-02-14 08:02
python学习
python
pytohn3+pycharm实现将txt文件 使用
jieba
分词 worldcloud制作词云 ——以《三国演义》的txt文件为例
代码以及释义如下:```import
jieba
import
jieba
.analyseimportwordcloudfromPILimportImage,ImageSequenceimportnumpyasnpimportmatplotlib.pyplotaspltfromwordcloudimportWordCloud
dlwlrmaIU
·
2024-02-14 02:41
什么是
jieba
?
简介
jieba
是一个流行的中文分词工具,它能够将一段文本切分成有意义的词语。它是目前Python中最常用的中文分词库之一,具有简单易用、高效准确的特点。
zg1g
·
2024-02-12 22:33
easyui
前端
javascript
ecmascript
前端框架
基于
jieba
库实现中文词频统计
要实现中文分词功能,大家基本上都是在使用
jieba
这个库来实现,下面就看看怎样实现一个简单文本分词功能。安装python的工具,安装当然是使用pip安装了。
kongxx
·
2024-02-12 12:43
基于
jieba
、TfidfVectorizer、LogisticRegression的垃圾邮件分类,模型平均得分为0.98左右(附代码和数据集)
基于
jieba
、TfidfVectorizer、LogisticRegression的垃圾邮件分类,模型平均得分为0.98左右(附代码和数据集)。
代码讲故事
·
2024-02-11 18:04
机器人智慧之心
数据挖掘
jieba
TfidfVectorizer
垃圾邮件
深度学习
机器学习
模型
Django+haystack+whoosh+
jieba
实现全局搜索和关键词高亮--简单包会
引言最近要做一个项目,要用到Django了,才发现自己已经忘了好多Django的相关知识了,这次趁着这个项目也复习一下,本篇文章主要是django+haystack+whoosh实现全文检索及关键字高亮,话不多说,我们这就开始。DjangoDjango是一个开放源代码的Web应用框架,由Python写成。采用了MTV的框架模式,即模型M,视图V和模版T。它最初是被开发来用于管理劳伦斯出版集团旗下的
与世无争小菜鸡
·
2024-02-11 18:13
如何使用Python进行地址信息(省/市/区/姓名/电话)提取
准备工作在开始之前,我们需要安装一些必要的Python库:
jieba
:一个中文分词库,可以用来识别中文文本中的词语。paddle:百度开发的深度学习平台
·
2024-02-11 17:50
gensim 语言训练库 2018-10-26
一、安装gensimpipinstallgensim二、使用这个训练库很厉害,里面封装很多机器学习的算法,是目前人工智能的主流应用库import
jieba
importgensimfromgensimimportcorporafromgensimimportmodelsfromgensimimportsimilaritiesl1
Mr_Du_Biao
·
2024-02-11 15:17
2021-02-08
完成
jieba
分词3个小时完成程序怎样运行的书看完完成并查集7道完成4道字符串3道完成肝5天java视频完成计算机导论肝3章完成第三周7天(学习了38个小时78/3
夏天_f806
·
2024-02-10 13:08
NLP学习(二)—中文分词技术
本篇博文会主要介绍基于规则的分词、基于统计的分词、
jieba
库等内容。一直在说中文分词,那中文分词和欧语系的分词有什么不同或者说是难点的呢?主要难点在于汉语结构与印欧体系语种差异
陈易德
·
2024-02-09 02:19
NLP自然语言处理
Python 词云 【中/英】小白简单入门教程
1.分析构建词云需要具备:原料即文章等内容将内容进行分词将分词后的内容利用构建词云的工具进行构建保存成图片2.需要的主要模块
jieba
中文分词wordcloud构建词云3.模块原理wordcloud的实现原理文本预处理词频统计将高频词以图片形式进行彩色渲染
嗨学编程
·
2024-02-09 01:08
Glide下载图片卡片视图CardView
/article/details/80537255AndroidApp开发图像加工中卡片视图CardView和给图像添加装饰的讲解以及实战(附源码简单易懂)https://blog.csdn.net/
jieba
oshayebuhui
chezabo6116
·
2024-02-08 22:56
glide
CPP项目:Boost搜索引擎
2.对于搜索引擎的相关宏观理解3.搜索引擎技术栈及项目环境技术栈:c/c++,c++11,STL,Boost准标准库,Jsoncpp,cpp
jieba
,cpp-httplib,html5,css,js
函数指针
·
2024-02-08 05:14
搜索引擎
用Py做文本分析3:制作词云图
import
jieba
#对小说文本第一回分词word_list=
jieba
.lcut(chapter.txt[1])word_list[:10]['第一回','','风雪','惊变','钱塘江','浩浩
凡有言说
·
2024-02-07 16:19
simhash去重算法实践
自己实践simhash算法的几点经验:1数据已处理,正则表达式去除各种转义符号2将文本中的数字和字母等去除3分词后去除停顿词步骤,1文本预处理代码步骤1
jieba
分词获取features2hash函数计算
想努力的人
·
2024-02-07 08:37
算法
simhash
算法
预处理
jieba
+wordcloud 词云分析 202302 QCon 议题 TOP 关键词
效果图步骤(1)依赖python库pipinstall
jieba
wordcloud数据概览$head-n5input.txt中国软件技术发展洞察和趋势预测报告2023QCon大会内容策划思路FinOps
xchenhao
·
2024-02-07 05:24
数据
开发
python
jieba
wordcloud
词云
分词
python显示词云
例如:将zaa.txt文本文件进行处理成词云图片import
jieba
,wordcloud,iofilepath='zaa.txt'f=io.open(filepath,'r',encoding='utf
计西
·
2024-02-06 02:24
TF-IDF入门与实例
我们对文档分析的时候,通常需要提取关键词,中文分词可以使用
jieba
分词,英文通过空格和特殊字符分割即可。那么分割之后是不是出现频率越高这些词就能越好代表这篇文章描述的内容呢?
lawenliu
·
2024-02-05 17:50
赘婿词云图制作
数据准备赘婿小说txt停用词表一张赘婿相关背景图制作流程读取小说文本利用
jieba
库对文本进行分词设置停用词表利用wordcloud库制作词云图代码根据上面的流程,编写代码。
罗罗攀
·
2024-02-05 16:35
用Stanford corenlp进行词性标注时遇到的问题
因为毕业设计的需要,得对中英文双语语料进行词性标注了,中文我就用了
jieba
,英文的没找到别的工具,用了Stanfordcorenlp了,首先用一片短文试运行了一下,运行没问题,但是用我自己的语料(十万行
20c5bd2d61e1
·
2024-02-05 11:12
调用Gensim库训练Word2Vec模型
一、前期工作:1.安装Gensim库pipinstallgensim2.安装chardet库pipinstallchardet3.对原始语料分词选择《人民的名义》的小说原文作为语料,先采用
jieba
进行分词
风筝超冷
·
2024-02-05 02:56
word2vec
python
深度学习
理论与实战:一篇看懂Python词云
实现原理导入一篇txt文档,使用
jieba
库对文档中的文字进行分词,计算各个词汇出现的频率,使用wordcloud库按照词汇频率的大小生成词云。
工业甲酰苯胺
·
2024-02-04 21:29
python
c#
开发语言
Python 中
jieba
库
文章目录
jieba
库一、简介1、是什么2、安装二、基本使用1、三种模式2、使用语法2.1对词组的基本操作2.2关键字提取2.3词性标注2.4返回词语在原文的起止位置
jieba
库一、简介1、是什么(1)
jieba
SteveKenny
·
2024-02-04 03:52
python
python
开发语言
后端
wordcloud库和
jieba
库的使用
文章目录wordcloud库的简单示范使用wordcloud库报错记录anaconda安装第三方
jieba
库
jieba
库的简单示范任务1:三国演义中的常见词汇分布在“三国"这两个隶书字上,出现频率高的词字体大任务
Mount256
·
2024-02-04 03:19
Python
python
词云
jieba
wordcloud
使用python简单实现《西游记》文本分析,通过词频对比探索西游记的主角
使用
jieba
模块简单统计西游记词频,并进行同义词处理(如合并行者,大圣为悟空)及排除词处理。
西红薯炒番茄
·
2024-02-03 22:42
笔记
文本分析
python
数据挖掘
python3.6.国家政策文本分析代码
-基于TF-IDF算法的关键词抽取(原文:https://blog.csdn.net/zhangyu132/article/details/52128924)import
jieba
.analysejieb
Luzichang
·
2024-02-01 20:53
养老政策
神经网络
python
政策
TF/IDF
文本处理
阅读笔记5:Polyamine metabolite spermidine rejuvenates oocyte quality by enhancing mitophagy
Polyaminemetabolitespermidinerejuvenatesoocytequalitybyenhancingmitophagyduringfemalereproductiveaging作者:YuZhang,
JieBa
i
盲人骑瞎马5555
·
2024-02-01 12:23
生殖医学
笔记
#RAG|NLP|
Jieba
|PDF2WORD# pdf转word-换行问题
文档在生成PDF时,文宁都发生了什么。本文讲解了配置对象、resources对象和content对象的作用,以及字体、宇号、坐标、文本摆放等过程。同时,还解释了为什么PDF转word或转文字都是一行一行的以及为什么页眉页脚的问题会加大识别难度。最后提到了文本的编码和PDF中缺少文档结构标记的问题。PDF转word更像是一种逆向工程。第三方库pdf转word的痛点-格式不保留本文着力解决换行问题:源
向日葵花籽儿
·
2024-02-01 07:54
VDB
NLP
数据分析
自然语言处理
pdf
word
各种中文分词工具的使用方法
诸神缄默不语-个人CSDN博文目录本文将介绍
jieba
、HanLP、LAC、THULAC、NLPIR、spacy、stanfordcorenlp、pkuseg等多种中文分词工具的简单使用方法。
诸神缄默不语
·
2024-01-30 17:30
人工智能学习笔记
python
中文分词
jieba
LAC
spacy
【3-1】实验——hanlp和
jieba
常用方法
一.下载pyhanlp1.打开conda使用如下语句condainstall-cconda-forgeopenjdkpython=3.8jpype1=0.7.0-ypipinstallpyhanlp附:提供了一个安装教程indexof/book/intro_nlp/安装包/-蝴蝶效应网盘(hankcs.com)二.安装中的特殊情况2.(特殊情况)下载完成后打开jupyternotebook后,使用
铁盒薄荷糖
·
2024-01-30 17:59
知识图谱实战6+3天
数据库
自然语言处理
NLP学习------HanLP使用实验
我跟据词向量的作者[6]所使用的分词工具来分词,会比不同工具(
jieba
)的效果要好,因为都是同一模式的分词,分出来的词应该都会存在于大型语料库中。
lanlantian123
·
2024-01-28 06:51
jieba
库
对这句话来说,要提取其中的单词(词语),非常困难,因为中文词语之间没有类似英文的空格等形式的分隔符,因此要实现中文的词语获取,就要依靠
jieba
库来实现。
D D D D C
·
2024-01-27 19:54
Python
python
使用 Spark MLlib 使用
jieba
分词训练中文分类器
_import
jieba
.{
Jieba
Segmenter,WordPunctTokenizer}objectChineseTextClas
DreamNotOver
·
2024-01-27 07:45
spark-ml
中文分类
集群
没有服务器也能做的推荐算法思路
思路一
jieba
分词,将搜索自然语言分解成名词,动词,形容词将名词部分转化为拼音(可以使用PyPinyin库),建立一个拼音库,模拟用户拼错的可能性,再根据拼音匹配正确的名词(匹配的库来自正确的产品库)
浪里摸鱼
·
2024-01-25 23:04
推荐算法
算法
python
python如何使用
jieba
分词
jieba
是一个非常流行的中文分词工具,为Python开发者提供了强大的分词支持。一、
jieba
分词的安装与导入首先,你需要安装
jieba
库。
Dxy1239310216
·
2024-01-25 19:03
Python
python
开发语言
自然语言处理
nlp
自然语言处理--概率最大中文分词
常用的中文分词工具包括
jieba
、HanLP等。二、算法描述本文实现概率最大中文分词算法,具体算法描述如
Java之弟
·
2024-01-24 12:03
自然语言处理
自然语言处理
中文分词
人工智能
Python学习:
jieba
库安装
直接用pipinstall
jieba
安装出错解决办法:改用国内镜像(清华的)安装方法:win+r,输入cmd,然后输入pipinstall-ihttps://pypi.tuna.tsinghua.edu.cn
文曲小谢
·
2024-01-24 12:24
jieba
.net使用NuGet管理器安装后初始化TfidfExtractor对象时报错
在引用安装
jieba
.net后,引用的Resources下只有如图几个文件导致初始化TfidfExtractor时报错,报找不到Couldnotfindfile'E:\\TZKJNet\\robotindustry
吱吱喔喔
·
2024-01-23 18:40
jieba
jieba.net
NLP深入学习(七):词向量
文章目录0.引言1.什么是词向量2.Word2Vec2.1介绍2.2例子3.参考0.引言前情提要:《NLP深入学习(一):
jieba
工具包介绍》《NLP深入学习(二):nltk工具包介绍》《NLP深入学习
Smaller、FL
·
2024-01-23 07:46
NLP
自然语言处理
学习
人工智能
nlp
Python全国计算机二级考试基本操作题
#注意:请不要修改其他已给出代码import______txt=input("请输入一段中文文本:")______print("{:.1f}".format(len(txt)/len(ls)))考点:
jieba
北方有你.
·
2024-01-21 11:09
Python
python
开发语言
datawhale 第三章-模型架构
1.2分词的三种粒度词粒度在英文等语言中有着天然的空格分隔,但是对于中文等语言可能需要额外的分词算法来进行处理(比如中文的
jieba
分词)词粒度的缺点:词粒度的词表由于长尾效应可能会非常大,并且稀有词往往很难学好
fan_fan_feng
·
2024-01-21 08:41
人工智能
php中文搜索工具,Laravel 下 TNTSearch+
jieba
-PHP 实现中文全文搜索
TNTSearch+
jieba
-php这套组合可以在不依赖第三方的情况下实现中文全文搜索;特别的适合博客这种小项目;开启php扩展pdo_sqlitesqlite3mbstring开始:看到https:
weixin_39883129
·
2024-01-21 01:09
php中文搜索工具
php
jieba
,laravel下TNTSearch+
jieba
-php实现中文全文搜索
上篇文章我们简单介绍了全文搜索的方案;全文搜索和中文分词;TNTSearch+
jieba
-php这套组合可以在不依赖第三方的情况下实现中文全文搜索;特别的适合博客这种小项目;我新建一个项目用于演示;laravelnewtntsearch
weixin_39988331
·
2024-01-21 01:09
php
jieba
php分词搜索thinkphp,TP5+TNTSearch实现中文分词搜索
安装composerrequireteamtnt/tntsearchcomposerrequirefukuball/
jieba
-php环境要求PHP>=7.1PDOPHPExtensionSQLitePHPExtensionmbstringPHPExtension
洪荒行者
·
2024-01-21 01:09
php分词搜索thinkphp
php搜索分词处理(
jieba
分词)
做搜索分词处理的时候,有几个常用的分词方法,
jieba
分词,scws分词,
jieba
分词是比较常用的分词开启php扩展pdo_sqlitesqlite3mbstring1.先compose安装一下composerrequirevanry
ouxiaoxian
·
2024-01-21 01:39
laravel
php
分词
搜索
php
TNTSearch 轻量级全文索引 + 中文分词
这里我选用的是fukuball/
jieba
-php选它的原因也是轻量,也不需要过多的依
weixin_34419326
·
2024-01-21 01:39
php
大数据
数据库
laravel(7.0)下tntsearch(2.0)和
jieba
-php使用
中文就需要
jieba
-php,但苦于tntsearch的驱动已经跟进laravel7,但
jieba
并没有跟进,致使我参考TNTSearch轻量级全文索引+中文分词一直报错,
Ben Hooper
·
2024-01-21 01:38
PHP
php
lavarel
sqlite
【迅搜19】扩展(二)TNTSearch和
Jieba
PHP方案
扩展(二)TNTSearch和
Jieba
PHP方案搜索引擎系列的最后一篇了。既然是最后一篇,那么我们也轻松一点,直接来看一套非常有意思的纯PHP实现的搜索引擎及分词方案吧。
码农老张Zy
·
2024-01-21 01:38
NLP深入学习(二):nltk 工具包介绍
句子和单词标记化(tokenization)3.移除停用词(Stopwords)4.词干提取5.词性标注6.命名实体识别7.理解同义词集8.频率分布9.情绪分析10.参考0.引言前情提要:《NLP深入学习(一):
jieba
Smaller、FL
·
2024-01-20 18:00
NLP
自然语言处理
学习
人工智能
nlp
中文分词
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他