E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
solrcloud分词
没有服务器也能做的推荐算法思路
思路一jieba
分词
,将搜索自然语言分解成名词,动词,形容词将名词部分转化为拼音(可以使用PyPinyin库),建立一个拼音库,模拟用户拼错的可能性,再根据拼音匹配正确的名词(匹配的库来自正确的产品库)
浪里摸鱼
·
2024-01-25 23:04
推荐算法
算法
python
python如何使用jieba
分词
在中文文本处理中,
分词
是基础且关键的一步。不同于英文的空格分隔,中文文本的
分词
对于理解整个句子或段落的意义至关重要。jieba是一个非常流行的中文
分词
工具,为Python开发者提供了强大的
分词
支持。
Dxy1239310216
·
2024-01-25 19:03
Python
python
开发语言
自然语言处理
nlp
2024-01-24(ElasticSearch)
1.mysql和elasticsearch的架构:2.IK
分词
器利于分中文词汇。底层是有一个中文字典,这个字典中的中文词汇也是可以拓展的和禁用某些词。
陈xr
·
2024-01-25 07:03
随记日志
elasticsearch
大数据
搜索引擎
ElasticSearch
分词
器介绍
其中,
分词
器是ElasticSearch中一个非常核心的概念,它决定了如何将用户输入的文本切分成一个个的词汇单元。一、什么是
分词
器?简单来说,
分词
器就是将文本切分成一个个词汇的功能。
Dxy1239310216
·
2024-01-25 07:20
Elasticsearch
elasticsearch
大数据
搜索引擎
【自然语言处理】【深度学习】文本向量化、one-hot、word embedding编码
即:把待处理的文档进行
分词
或者是N-gram处理,然后进行去重得到词典。例:假设我们有一个文档:“深度学习”,那么进行one-hot处理后得到的结果如下to
忘却的旋律dw
·
2024-01-25 07:47
自然语言处理
深度学习
Elasticsearch 常用查询系列
搜索分为两个过程:当向索引中保存文档时,默认情况下,es会保存两份内容,一份是_source中的数据,另一份则是通过
分词
、排序等一系列过程生成的倒排索引文件,倒排索引中保存了词项和文档之间的对应关系。
大口吃饭大口吐
·
2024-01-24 17:59
大模型理论基础初步学习笔记——第三四章 危害,与模型架构
大模型理论基础初步学习笔记——第三四章危害,与模型架构一、危害性部分:二、架构第3章模型架构3.2
分词
3.2.1基于空格的
分词
3.2.2BytePairEncoding(BPE)
分词
算法3.2.2.1Unicode
panda_dbdx
·
2024-01-24 16:46
学习
笔记
架构
ElasticSearch
倒排索引:搜索速度快1、安装ElasticSearch、Kibana、IK
分词
器dockerrun-d\--namees\-e"ES_JAVA_OPTS=-Xms512m-Xmx512m"\-e"
IsLuNaTiC
·
2024-01-24 12:50
中间件
elasticsearch
大数据
搜索引擎
HMM隐马尔可夫模型和维特比算法
隐马尔可夫模型常用来处理诸如
分词
,词性标注,命名
Y·Not·Try
·
2024-01-24 12:05
NLP
HMM
维特比算法
自然语言处理
算法
机器学习
自然语言处理--概率最大中文
分词
自然语言处理附加作业--概率最大中文
分词
一、理论描述中文
分词
是指将中文句子或文本按照语义和语法规则进行切分成词语的过程。
Java之弟
·
2024-01-24 12:03
自然语言处理
自然语言处理
中文分词
人工智能
(二)NLP-中文
分词
-HMM-维特比算法
中文
分词
一、词词是一个完整语义的最小单位。
分词
技术是词性标注、命名实体识别、关键词提取等技术的基础。1中文
分词
和欧语系的
分词
有什么不同或者说是难点的呢?
淡定的炮仗
·
2024-01-24 12:03
NLP
nlp
java 开源中文的繁简体转换工具 opencc4j
支持自定义
分词
支持判断单个字(词)是否为简体/繁体支持返回字符串中简体/繁体的列表信息支持中国台湾地
老马啸西风
·
2024-01-24 10:49
java
开发语言
NLP
github
开源
使用docker安装elasticsearch 7.4.2
docker安装elasticsearch及使用elasticsearch的安装拉取镜像创建实例安装kibana安装IK
分词
器elasticsearch的安装拉取镜像第一步要下载elasticsearch
千寻物语
·
2024-01-24 08:32
docker
docker
elasticsearch
数据聚合、自动补全、数据同步、es集群
目录数据聚合聚合的分类DSL实现bucket聚合DSL实现Metrics聚合RestAPI实现聚合多条件聚合带过滤条件的聚合自动补全安装拼音
分词
器自定义
分词
器completionsuggester查询修改索引库数据结构
@katoumegumi
·
2024-01-24 07:11
springcloud
spring
cloud
微服务
java
spring
spring
boot
es
rabbitmq
用Py做文本分析5:关键词提取
针对一篇语段,在不加人工干预的情况下提取出其关键词首先进行
分词
处理关键词分配:事先给定关键词库,然后在文档中进行关键词检索关键词提取:根据某种规则,从文档中抽取最重要的词作为关键词有监督:抽取出候选词并标记是否为关键词
凡有言说
·
2024-01-24 00:04
elasticsearch的拼音
分词
器安装
安装拼音
分词
器第一步:下载要实现根据字母做补全,就必须对文档按照拼音
分词
。在GitHub上恰好有elasticsearch的拼音
分词
插件。
IT空门:门主
·
2024-01-23 12:16
java
elasticsearch
大数据
搜索引擎
英语语法篇 - 查漏补缺
可以作宾语的元素(动宾、介宾)复合宾语(宾语补足语)-复杂及物动词一、宾语补足语通常紧随于宾语之后1.名词(代词)+形容词(即形容词作宾语补语)2.名词(代词)+名词(即名词作宾语补语)3.名词(代词)+[现在
分词
Uranus_user
·
2024-01-22 10:19
英语
其他
看书标记【R语言数据分析项目精解:理论、方法、实战 9】
项目背景9.1.2项目目标9.1.3项目方案1.建立评论文本质量量化指标2.建立用户相似度模型3.对用户评论进行情感性分析9.2项目技术理论简介9.2.1评论文本质量量化指标模型1.主题覆盖量2.评论文本
分词
数量
小胡涂记
·
2024-01-22 09:38
R语言资料实现
r语言
数据分析
开发语言
ElasticSearch(ES) 搜索入门笔记
文章目录ElasticSearch(ES)搜索入门笔记环境准备-本地安装ES和Kibanamapping字段类型mapping参数Analyzer自定义分析器分析器的测试中文
分词
ik_maxNormalizer
chencjiajy
·
2024-01-22 07:24
工具
elasticsearch
笔记
ES
自然语言处理--双向匹配算法
双向匹配算法通常包括以下步骤:
分词
处理:对两个文
Java之弟
·
2024-01-22 05:24
自然语言处理
自然语言处理
人工智能
一键式Excel
分词
统计工具:如何轻松打包Python脚本为EXE
一键式Excel
分词
统计工具:如何轻松打包Python脚本为EXE写在最前面需求分析直接用Python打包为什么大?为什么要使用conda环境?
是Yu欸
·
2024-01-22 01:21
蓝桥杯python
#
实践
excel
python
开发语言
经验分享
笔记
学习
生活
docker安装es kibana ik
分词
器
Docker安装Es数据库1.启动一个docker网络【用于es和kibana互通】dockernetworkcreatees-net2.拉取ES镜像dockerpullelasticsearch:7.12.13.启动esdockerrun-d–namees-e“ES_JAVA_OPTS=-Xms1024m-Xmx1024m”-e“discovery.type=single-node”-v/vol
zx-blog
·
2024-01-21 21:20
elasticsearch
docker
大数据
java
Mac 基于 docker 安装ElasticSearch、Kibana、Ik
分词
器
4.1.部署单点ES因为还需要部署Kibana容器,因此需要让es和kibana容器互联,这里先创建一个网络(使用compose部署可以一键互联,不需要这个步骤,但是将来有可能不需要kbiana,只需要es,所以先这里手动部署单点es)dockernetworkcreatees-net拉取镜像,这里采用的是ElasticSearch的7.12.1版本镜像dockerpullelasticsearc
TWENTY%ONE
·
2024-01-21 21:20
macos
docker
elasticsearch
Docker安装ElasticSearch、Kibana、IK
分词
器以及设置ES账户密码
Docker安装ElasticSearch、Kibana、IK
分词
器以及设置ES账户密码版本声明:系统:CentOS7.9(云服务器)ES版本:7.6.1Kibana:7.6.1Ik分析器版本:7.6.1
Extra_0738
·
2024-01-21 21:19
Elasticsearch
elasticsearch
docker
大数据
搜索引擎
全文检索
Docker安装ES/Kibana/ik
分词
器
1.安装ES1.拉取es镜像dockerpullelasticsearch:7.12.02.创建文件夹mkdir-p/root/tools/elasticsearch/configmkdir-p/root/tools/elasticsearch/datamkdir-p/root/tools/elasticsearch/plugins3.配置文件echo"http.host:0.0.0.0">>/r
SuperWQH7
·
2024-01-21 21:49
docker
elasticsearch
容器
Docker上安装Elasticsearch、Kibana 和IK
分词
器
Docker上安装Elasticsearch、Kibana和IK
分词
器随着大数据和日志管理的兴起,Elasticsearch和Kibana成为了许多开发者和系统管理员首选的工具,我接下来使用的版本是8.11.0
ℳ₯㎕ddzོꦿ࿐
·
2024-01-21 21:48
Docker
docker
elasticsearch
jenkins
Elasticsearch5中term 查询和match 查询
一、基本情况前言:termquery和matchquery牵扯的东西比较多,例如
分词
器、mapping、倒排索引等。我结合官方文档中的一个实例,谈谈自己对此处的理解string类型在es5.
王卫东
·
2024-01-21 20:43
elasticsearch
elasticsearch
term
查询
match
查询
Elasticsearch 5.0 中term 查询和match 查询(text和keyword)
1.term&matchterm:精确查询,对查询的值不
分词
,直接进倒排索引去匹配。match;模糊查询,对查询的值
分词
,对
分词
的结果一一进入倒排索引去匹配2.t
OkidoGreen
·
2024-01-21 20:13
Elasticsearch(ES)中 term与match之间的区别
目录基本介绍例子:解决方案基本介绍term采用的是精确查询match采用的是模糊查询两者的区别:当采用mathch去查询:首先会将查询条件进行
分词
,然后在与文档里面的
分词
进行匹配,匹配度越高分数越高越前面当采用
Code-zyc
·
2024-01-21 20:12
微服务
elasticsearch
大数据
搜索引擎
Elasticsearch里面 term搜索与match_phrase的区别是什么
它不会对搜索词进行
分词
或标准化处理,而是直接将搜索词与索引中的术语进行比较。
Tom-汤姆
·
2024-01-21 20:11
elasticsearch
jenkins
大数据
elasticsearch中term与match
分词
器、字符串类型、倒排索引在说term和match之前,需要先了解一下这三个概念
分词
器es默认的
分词
器是standardanalyzer,该
分词
器的特点是:将所有英文字符串的大写字母转换成小写字母,然后按照空格对英文字符串进行
分词
茯苓1998
·
2024-01-21 20:40
elasticsearch
elasticsearch
term
match
Elasticsearch 中的 term、terms 和 match 查询
term查询不会对查询的文本进行
分词
。示例G
小湘西
·
2024-01-21 20:40
Elasticsearch
elasticsearch
大数据
搜索引擎
clickhouse 代替 es 如何对文档做模糊查询?
这也是为什么ES凭借其逆天的
分词
能力在日志存储领域杀疯了的原因。但
禹鼎侯
·
2024-01-21 18:09
数据库
数据库
clickhouse
全文检索
部
分词
汇
sido是,死hida我hixi我的hihida我们hihixi我们的tida你titida你们tixi你的titixi你们的sida他pida它soda她sipisoda他,她,它们sisi名词cisi词典连词dosi动词dasi代词hisi语气词tisi介词pisi形容词fusi副词susi数词sixi帅的pixi丑的tixi大的cixi小的pido派,安排sedo使,让hasi汗tahusi
汝且候
·
2024-01-21 17:29
探索 Python:发现有趣的库——第 3 章:玩转自然语言处理
算法仙:第一步是学会
分词
,也就是将文本拆分成单独的词或标记。impo
_rtf
·
2024-01-21 15:10
探索
Python:发现有趣的库
python
自然语言处理
easyui
【华为机试真题Java】中文
分词
模拟器
目录题目描述输入描述输出描述参考示例参考代码机试介绍写在最后题目描述给定一个连续不包含空格的字符串,该字符串仅包含英文小写字母及英文标点符号(逗号、分号、句号),同时给定词库,对该字符串进行精确
分词
。
forest_long
·
2024-01-21 11:32
华为机试真题-Java
华为od
算法
华为
java
华为机试
中文分词
ElasticSearch 映射&
分词
在mysql中创建数据表格中,会对每个字段进行属性设置,而在ES也有相应的操作—映射;映射是定义一个文档是如何被处理的,这些属性字段是怎样被存储或者检索的,这些都是通过映射来操作的。 ES包含了很多映射规则,具体的详见官方文档,在第一储存是,ES会去猜测字段的映射规则,当然也可以自己修改字段的映射规则;例如:来查询默认的映射规则,可以看出大致的规律,数字被默认为long类型,字符串被默认为t
華小灼
·
2024-01-21 09:44
elasticsearch
elasticsearch
datawhale 第三章-模型架构
一、大模型的
分词
器1.1什么是
分词
?
分词
的目的是将输入文本分成一个个词元,保证各个词元拥有相对完整和独立的语义,以供后续任务(比如学习embedding或者作为高级模型的输入)使用。
fan_fan_feng
·
2024-01-21 08:41
人工智能
NLP学习(1)
中文
分词
任务关注句子中的词汇之间的边界,词性标注关注这些被分出边界的词在词法上的类型。而命名实体识别关注的是命名实体的边界。它的粒度通常比中文
分词
要粗——是多个单词构成的复
Tang_Genie
·
2024-01-21 06:22
NLP自然语言处理介绍
在NLP中,一个基础但关键的任务是
分词
。由于自然语言中的词语是由连续的字符序列组成,计算机需要将这些连续的字符切分成单独的词语或词素
Dxy1239310216
·
2024-01-21 06:37
nlp
分布式搜索引擎ElasticSearch的RestClient查询文档
发起查询请求match查询精确查询布尔查询排序分页高亮请求算分函数查询解析响应数据聚合查询解析数据聚合声明自定义
分词
器PUT /test{ "settings": { "analysis": {
老黄爱编码
·
2024-01-21 04:55
微服务
MySQL 实现一个简单版搜索引擎,真是绝了!
innodb支持全文索引是从mysql5.6开始的)char、varchar、text类型字段能创建全文索引(fulltextindextype)全文索引的基于关键词的,如何区分不同的关键词了,就要用到
分词
java猫猫碎碎
·
2024-01-21 02:22
php jieba,laravel下TNTSearch+jieba-php实现中文全文搜索
上篇文章我们简单介绍了全文搜索的方案;全文搜索和中文
分词
;TNTSearch+jieba-php这套组合可以在不依赖第三方的情况下实现中文全文搜索;特别的适合博客这种小项目;我新建一个项目用于演示;laravelnewtntsearch
weixin_39988331
·
2024-01-21 01:09
php
jieba
php
分词
搜索thinkphp,TP5+TNTSearch实现中文
分词
搜索
安装composerrequireteamtnt/tntsearchcomposerrequirefukuball/jieba-php环境要求PHP>=7.1PDOPHPExtensionSQLitePHPExtensionmbstringPHPExtension案例1.创建搜索服务类。namespaceapp\index\service;useTeamTNT\TNTSearch\TNTSearc
洪荒行者
·
2024-01-21 01:09
php分词搜索thinkphp
PHP 实现中文
分词
搜索功能
中文
分词
介绍众所周知,英语是基于单词的,单词和单词之间用空格隔开,而中文是基于单词的。句子中的所有单词都可以连接起来以描述含义。例如,英文句子“我是学生”将用中文表示“我是学生”。
啊猿呢
·
2024-01-21 01:39
php搜索
分词
处理(jieba
分词
)
做搜索
分词
处理的时候,有几个常用的
分词
方法,jieba
分词
,scws
分词
,jieba
分词
是比较常用的
分词
开启php扩展pdo_sqlitesqlite3mbstring1.先compose安装一下composerrequirevanry
ouxiaoxian
·
2024-01-21 01:39
laravel
php
分词
搜索
php
TNTSearch 轻量级全文索引 + 中文
分词
TNTSearch轻量级全文索引+中文
分词
选用TNTSearch的原因:轻,方便移植,不需要额外安装服务,能减少后期维护的工作量。
weixin_34419326
·
2024-01-21 01:39
php
大数据
数据库
laravel(7.0)下tntsearch(2.0)和jieba-php使用
按照参考文章TNTSearch-PHP实现的全文索引引擎,已经完成了英文
分词
的搜索。
Ben Hooper
·
2024-01-21 01:38
PHP
php
lavarel
sqlite
【迅搜19】扩展(二)TNTSearch和JiebaPHP方案
既然是最后一篇,那么我们也轻松一点,直接来看一套非常有意思的纯PHP实现的搜索引擎及
分词
方案吧。这一套方案由两个组件组成,一个叫TNTSearch,另一个则是大名鼎鼎的结巴
分词
的PHP版本。
码农老张Zy
·
2024-01-21 01:38
MySQL-索引补充
仅加速查询唯一索引:加速查询+列值唯一(可以有null)主键索引:加速查询+列值唯一+表中只有一个(不可以有null)组合索引:多列值组成一个索引,专门用于组合搜索,其效率大于索引合并全文索引:对文本的内容进行
分词
liujiaping
·
2024-01-20 22:30
MySQL
SQL语句
数据库
mysql
数据库
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他