E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
jieba分词器
ELK的日志解决方案
目录1、ELK是什么2、Elasticsearch(ES)2.1虚拟机docker安装es2.2倒排索引2.3es的
分词器
ik2.4springboot整合es3、Kibana4、Logstash4.1docker
林隐w
·
2023-12-17 23:24
java
elk
elk
Python中WordCloud库及matplotlib的实现
一、词云库wordcloud的安装与运用1、安装:pipinstallwordcloud#网络安装pipinstall
jieba
#
jieba
:中文分词库python-mpipinstall#本地安装2、
ZiT11x
·
2023-12-17 14:13
python
python
matplotlib
开发语言
掌握自然语言处理的技巧:从理论到实践的完整指南
二、自然语言处理的应用场景三、自然语言处理的基本步骤1.数据获取2.数据预处理3.特征提取四、自然语言处理的常用工具1.NLTK2.
jieba
3.scapy总结前言自然语言处理(NaturalLanguageProcessing
李红小可爱
·
2023-12-17 13:32
自然语言处理
easyui
人工智能
服务器
python
ES日志分析在Win系统上的安装和使用
分词器
下载官方
分词器
下载如果GIthub加载不出来。可以看看我的这个文章GitHub上不去怎么办?。
拈㕦一笑
·
2023-12-17 13:16
elasticsearch
spring
boot
接单日记(三)文本处理之词云生成
一、实验目的熟悉Python第三方库python-docx、wordcloud、
jieba
库的安装和使用熟悉使用pathlib来获取文件熟悉运用Python封装的思想熟悉使用join方法对字符串进行拼接操作了解字符串的
SteveKenny
·
2023-12-17 08:47
python
服务器
java
运维
Elasticsearch从入门到部署 文档操作 RestAPI
Elasticsearch从入门到项目部署安装
分词器
索引库操作-CSDN博客3.文档操作有了索引库,接下来就可以向索引库中添加数据了。Elasticsearch中的数据其实就是JSON风格的文档。
软工菜鸡
·
2023-12-16 22:00
jenkins
运维
elasticsearch
java
橘子学ES09之分词以及各大
分词器
Analyzer是名词,他就是
分词器
,文本分析
橘子在努力
·
2023-12-16 21:12
数据库
#
ES
elasticsearch
java
大数据
由词性标注Part of speech Tagging引出的概念解释
词性标注工具:thulac、
jieba
序列标注序列标注问题:包括分词、词性标注问题、NER、关键词抽取、词义角色标注、词性序列标注序列标注方法
Reese小朋友
·
2023-12-16 17:50
Machine
Learning
Stuffs
算法
nlp
Python中文分析:《射雕英雄传》统计人物出场次数、生成词云图片文件、根据人物关系做社交关系网络和其他文本分析
对应内容1.中文分词,统计人物出场次数,保存到词频文件中,文件内容为出场次数最多的前300人(可大于300)的姓名和次数#-*-coding:utf-8-*-import
jieba
defgetText(
刘墨苏
·
2023-12-16 04:49
Python
python
中文分词
中文分析
社交关系网络
python分析小说《从前有座灵剑山》文本
#分词import
jieba
importreimportstring
jieba
.setLogLevel(
jieba
.logging.INFO)withopen('从前有座灵剑山.txt','r',encoding
huixiang4
·
2023-12-16 04:19
python
开发语言
数据分析
利用python语言分析小说的词频、词性、词云、小说人物出场次数排序以及小说人物关系
2023/3/2118:36#功能#导入networkx,matplotlib包importreimportnetworkxasnximportmatplotlib.pyplotaspltimport
jieba
.possegaspseg
贾高亮
·
2023-12-16 04:44
python
Elasticsearch之_reindex
_reindex可是个好东西,尤其是针对开发者而言,从小的方面讲在存储数据是我们常常可能由于字段类型的问题,值大小写的问题,
分词器
的问题导致查询不到,或者结构不对,或者分片数,副本数不对等这类问题,从大的方面讲
我教你啊
·
2023-12-16 03:46
#
Elasticsearch系列
elasticsearch
大数据
Elasticsearch从入门到项目部署 安装
分词器
索引库操作
day08-Elasticsearch黑马商城作为一个电商项目,商品的搜索肯定是访问频率最高的页面之一。目前搜索功能是基于数据库的模糊搜索来实现的,存在很多问题。首先,查询效率较低。由于数据库模糊查询不走索引,在数据量较大的时候,查询性能很差。黑马商城的商品表中仅仅有不到9万条数据,基于数据库查询时,搜索接口的表现如图:改为基于搜索引擎后,查询表现如下:需要注意的是,数据库模糊查询随着表数据量的增
软工菜鸡
·
2023-12-15 22:50
jenkins
运维
Elasticsearch学习
force_merge操作,以释放空间4、采取冷热分离机制,热数据存储到SSD,提高检索效率;冷数据定期进行shrink操作,以缩减存储5、采用curator进行索引的生命周期管理6、仅针对需要分词的字段,合理的设置
分词器
CopyLower
·
2023-12-15 19:07
学习
elasticsearch
学习
大数据
微服务学习|DSL查询语法、搜索结果处理、RestClient查询文档、黑马旅游案例
例如:match_all全文检索(fulltext)查询:利用
分词器
对用户输入内容分词,然后去倒排索引库中匹配。例如:match_querymulti_match_query精确查询:根据精确词
玩复杂点
·
2023-12-15 18:53
微服务
微服务
java
后端
elasticsearch
学习
SpringBoot整合Lucene实现全文检索【详细步骤】【附源码】
笑小枫的专属目录1.项目背景2.什么是Lucene3.引入依赖,配置索引3.1引入Lucene依赖和
分词器
依赖3.2表结构和数据准备3.3创建索引3.4修改索引3.5删除索引4.数据检索4.1基础搜索4.2
笑小枫
·
2023-12-15 12:11
SpringBoot集成中间件
全文检索
spring
boot
lucene
Elasticsearch学习心得及常见问题
目录1.Elasticsearch和elasticsearch-headr跨域问题2.Elasticsearch的插件ik
分词器
3.ElasticSearch的核心概念1.分片2.倒排索引(重点,数据库可能会问
@逾越
·
2023-12-15 09:51
笔记
面试
elasticsearch
solr
搜索引擎
Elasticsearch 查询革新:探索 Wildcard 类型的高效模糊匹配策略
2、解决方案探讨面对这种问题,传统的解决方案有两种:2.1方案一:ngram
分词器
使用ngram
分词器
对存入的数据进行精细化的拆分,利用细颗粒度的token进行快速的召回。
铭毅天下
·
2023-12-15 04:47
elasticsearch
大数据
搜索引擎
全文检索
Python jiaba分词库安装过程 imac环境
2.下载并安装jiaba分词库全自动安装:`easy_install
jieba
`或者`pipinstall
jieba
`/`pip3in
爱上鱼的猫_产品狗
·
2023-12-15 02:55
docker安装elasticsearch和kibana
docker安装rabbitmq3、docker安装mysqldocker安装elasticsearch和kibanadocker系列一、安装elasticsearch二、安装kibana三、安装ik
分词器
魚迹
·
2023-12-14 16:42
Linux
docker
elasticsearch
kibana
ik分词器
基于python爬虫技术对于淘宝的数据分析的设计与实现
同时让机器模拟人在浏览器上的行为,登录指定的网站,通过网站内部的搜索引擎来搜索自己相应的信息,从而获取相应关键字的商品信息,并进而获取数据,然后通过csv模块将数据存储到本地库中,接着在通过pandas、
jieba
凯森森讲Python
·
2023-12-06 23:36
python
开发语言
扩散模型学习(三)
文章目录一、StableDiffusion使用二、管线的组成部分1.可变分自编码器(VAE)2.
分词器
(Tokenizer)和文本编码器(TextEncoder)3.UNet4.调度器(Scheduler
李明朔
·
2023-12-06 18:51
AIGC
学习
人工智能
Windows系统下Elasticsearch-7.15.2安装
一、环境此次笔记使用的运行环境以及软件版本系统:WIN10JDK版本:1.8Elasticsearch版本:7.15.2elasticsearch-head版本:最新IK
分词器
版本:7.15.2Kibana
高级盘丝洞
·
2023-12-06 13:14
windows
elasticsearch
大数据
NLP中几个简单的,字符串相似度计算方法
文章目录一、简单的需求二、技术需求:三、常见的几种简单技术四、几个示例1.使用编辑距离(LevenshteinDistance)2.使用Jaccard相似度3.使用
jieba
库进行分词以及结合余弦相似度来计算两个中文字符串相似度一
QuietNightThought
·
2023-12-06 09:23
深度学习
人工智能
nlp
使用中文维基百科训练word2vec模型
使用中文维基百科训练word2vec模型声明下载原始数据处理数据将下载后的文件转为txt文件将繁体中文转化为简体中文
jieba
分词训练模型测试模型参考声明本文作为个人学习笔记使用,考虑到有些网上教程即使收藏也存在一段时间后被删贴的可能
长沙知名李二狗
·
2023-12-06 07:13
自然语言处理学习笔记
word2vec
人工智能
自然语言处理
python统计三国高频词,画条形图,绘词云图
3、生成三国演义(下卷)词云图思路1.open打开读取整篇文档2.使用split()方法找到关键字,分开上下卷3.使用
jieba
进行中文分词4.使用Counter统计词频并将前10个高频词使用append
青衫木马牛
·
2023-12-06 00:07
python
python
开发语言
python词云图《三国演义》
import
jieba
importwordcloudfile=open(“三国演义.txt”,“r”,encoding=“utf-8”)t=file.read()file.close()ls=
jieba
.lcut
m0_61921127
·
2023-12-06 00:36
笔记
python绘制三国演义词云图
导入模块1.
jieba
的安装与使用pipinstall
jieba
condainstall-cconda-forge
jieba
Python2.X版全自动安装:easy_install
jieba
或者pipinstall
jieba
黄天宇kiki
·
2023-12-06 00:34
python
python
开发语言
中文分词
jieba
库中自定义词典的词频含义,便于分出想要的词(自留笔记)
写论文的时候,数据处理用
jieba
分词,建立了自定义词典但怎么也分不出想要的词,搜了半天发现国内基本上没人写这个,所以写下来自用,也分享给做数据处理的小伙伴们。
NINI_likelike
·
2023-12-05 22:46
python
elasticsearch聚合、自动补全、数据同步
、数据聚合1.1聚合的种类1.2DSL实现聚合1.2.1Bucket聚合语法1.2.2聚合结果排序1.2.3限定聚合范围1.2.4Metric聚合语法1.3RestAPI实现聚合二、自动补全2.1拼音
分词器
蓝朽
·
2023-12-05 12:18
后端相关
elasticsearch
分布式搜索引擎elasticsearch(二)
例如:match_all全文检索(fulltext)查询:利用
分词器
对用户输入内容分词,然后去倒排索引库中匹配。例如:
weixin_50458070
·
2023-12-05 10:48
微服务
搜索引擎
分布式
elasticsearch
IK
分词器
源码解析(一):构造字典树
最近在搞ES,结合了IK
分词器
,偶然间看到IK的主词典中有27万的词,加上其他的拓展词库差不多也有小一百万了,于是比较好奇IK是如何判断用户输入的词是否在词库中的,于是索性下载了IK的源码读一读,接下来是分词流程的解析
Tristeza
·
2023-12-04 22:12
以下选项不是python文本处理方向第三方库_Python程序设计-超星尔雅-学习通-题库零氪...
2.1python安装1、【单选题】以下属于Python机器学习第三方库的是:A、
Jieba
B、SnowNLPC、LosoD、sklearn2、【单选题】以下属于PythonWeb开发框架第三方库的是:
weixin_39552317
·
2023-12-04 07:37
Word2vec进行中文情感分析
fromsklearn.cross_validationimporttrain_test_splitfromgensim.models.word2vecimportWord2Vecimportnumpyasnpimportpandasaspdimport
jieba
fromsklearn.externalsimportjoblib
瑶子ove
·
2023-12-04 05:05
NLP
mysql全文索引
在MySQL5.7.6版本之前,全文索引只支持英文全文索引,不支持中文全文索引,需要利用
分词器
把中文段落预处理拆分成单词,然后存入数据库。
华妃
·
2023-12-03 21:38
mysql
数据库
database
elasticsearch安装
分词器
插件
查看插件安装情况elasticsearch-pluginlist插件在线安装bin/elasticsearch-plugininstallanalysis-icu离线安装ik分词cdpluginswgethttps://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.17.7/elasticsearch-analysi
_三石_
·
2023-12-02 19:40
elasticsearch
elasticsearch
大数据
elasticsearch的查询(更新中)
例如:match_all全文检索(fulltext)查询:利用
分词器
对用户输入内容分词,然后去倒排索引库中匹配。
无问287
·
2023-12-02 07:17
es学习
elasticsearch
json
大数据
elasticsearch安装ik中文
分词器
中文的
分词器
现在大家比较推荐的就是IK
分词器
,当然也有些其它的比如smartCN、HanLP。这里只讲如何使用IK做为中文分词。
shykevin
·
2023-12-02 07:13
java
linux
elasticsearch
python
nginx
SpringBoot整合ES客户端操作
past-releases不要装太新的,里面自己配置了jdk,太新的可能用不了,免安装的,解压就好浏览器输入:http://localhost:9200/返回json,表示启动成功了:ES索引操作下载
分词器
shall_zhao
·
2023-12-02 04:35
spring
boot
elasticsearch
后端
Elasticsearch
分词器
--空格
分词器
(whitespace analyzer)
analysis是通过analyzer(
分词器
)来实现的,可以使用Elasticearch内置的
分词器
,也可以自己去定制一些
分词器
。
军伟@
·
2023-12-01 22:38
elasticsearch
搜索引擎
中文分词
基于P-Tuning v2微调ChatGLM2-6B的操作步骤(环境已设置好)
P-Tuningv2结2.具体操作步骤如下:步骤1.sourceactivate(condaenvlist)condaactivatetorch1.13pipinstallrouge_chinesenltk
jieba
datasetscondaactivatechatglm2
zrdsunshine
·
2023-12-01 22:20
pytorch
chatgpt
linux
[源码和文档分享]基于python的B站弹幕数据分析(爬虫+可视化)
2环境的安装本项目实在pycharm中实现,使用到的第三方库有requests,bs4,pandas,
jieba
.posseg,py
ggdd5151
·
2023-12-01 19:17
python pytorch实现RNN,LSTM,GRU,文本情感分类
先对句子进行分词并构建词表2.生成word2id3.构建模型4.训练模型5.测试模型代码如下:importpandasaspdimporttorchimportmatplotlib.pyplotaspltimport
jieba
importnumpyasnp
Mr Gao
·
2023-12-01 06:27
人工智能
python
自然语言处理
python
rnn
pytorch
python实验3 石头剪刀布游戏
运用
jieba
库进行中文分词并进行文本词频统计。二、知识要点图三、实验1.石头剪刀布实验题目利用列表实现石头剪刀布游戏。请补全程序并提交。请思考:winList使用元组实现可以吗?童鞋
七百~~~汪汪汪
·
2023-12-01 00:17
python
实验
python
开发语言
AI模型训练——入门篇(二)
具体步骤包括:使用load_dataset函数加载数据集,并应用自定义的
分词器
;使用map函数将自定义
分词器
应用于数据集;使用filter函数过滤数据集中的不必要字段;使用batch函数将处理后的数据集批处理
MonsterQy
·
2023-11-30 19:52
AI
人工智能
python
jieba
分词_Python入门:
jieba
库的使用
jieba
库是一款优秀的Python第三方中文分词库,
jieba
支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。
weixin_39996141
·
2023-11-30 17:37
python
jieba分词
python之
jieba
分词库
一、
jieba
库基本介绍(1)、
jieba
库概述
jieba
是优秀的中文分词第三方库-中文文本需要通过分词获得单个的词语-
jieba
是优秀的中文分词第三方库,需要额外安装-
jieba
库提供三种分词模式,最简单只需掌握一个函数
月疯
·
2023-11-30 17:03
【python库】
python3:
jieba
(“结巴”中文分词库) .2023-11-28
1.安装
jieba
库(Windows系统)打开cmd.exe(命令提示符),输入下面内容后回车,完成
jieba
库安装pipinstall-ihttps://mirrors.bfsu.edu.cn/pypi
mklpo147
·
2023-11-30 17:31
#
练习
python
Go语言实现大模型
分词器
tokenizer
文章目录前言核心结构体定义构造函数文本初始处理组词构建词组索引训练数据编码解码打印状态信息运行效果总结前言大模型的tokenizer用于将原始文本输入转化为模型可处理的输入形式。tokenizer将文本分割成单词、子词或字符,并将其编码为数字表示。大模型的tokenizer通常基于词表进行编码,使用词嵌入将单词映射为向量表示。tokenizer还可以将输入文本进行填充和截断,以确保所有输入序列的长
醉墨居士
·
2023-11-30 11:29
AI
golang
开发语言
语言模型
机器翻译
安装elasticsearch
目录一、部署单点es1.1创建网络1.2加载镜像1.3运行二、部署kibana2.1部署2.2DevTools三、安装IK
分词器
3.1在线安装ik插件(较慢)3.2离线安装ik插件(推荐)3.3扩展字典
蓝朽
·
2023-11-30 08:56
后端相关
elasticsearch
大数据
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他