E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Jeba分词
自然语言处理基础知识 学习
Partofspeechtagging词性标注Namedentityrecognition:命名实体的识别Co-reference:共指消解(代词)Basicdependencies:句法关系中文的自动
分词
wangqiaowq
·
2023-12-14 21:04
学习
docker安装elasticsearch和kibana
docker安装rabbitmq3、docker安装mysqldocker安装elasticsearch和kibanadocker系列一、安装elasticsearch二、安装kibana三、安装ik
分词
器
魚迹
·
2023-12-14 16:42
Linux
docker
elasticsearch
kibana
ik分词器
挑战52天学小猪佩奇笔记--day2
翻译:Mr.Dinosaurislost.知识点:没有生命的恐龙先生不是自己丢的,是被弄丢的,所以用被动语态被动语态:be+动词的过去
分词
这个句子的lost也可以看作形容词单词:din
努力学英语的piggy
·
2023-12-14 16:38
笔记
【基于NLP的微博情感分析:从数据爬取到情感洞察】
基于NLP的微博情感分析:从数据爬取到情感洞察背景数据集技术选型功能实现创新点今天我将分享一个基于NLP的微博情感分析项目,通过Python技术、NLP模型和Flask框架,对微博数据进行清洗、
分词
、可视化
爱欲无极
·
2023-12-14 13:02
数据分析与挖掘
自然语言处理
人工智能
ES查询语句中,match和term有什么区别?
它在查询之前对字段值和查询字符串进行
分词
(tokenization)处理。分析器(Analyzer)应用:match查询会应用字段指定的分析器(如果有的话)来处理查询字符串。
来自宇宙的曹先生
·
2023-12-14 13:55
elasticsearch
搜索引擎
流利说懂你英语笔记要点句型·核心课·Level 6·Unit 1·Part 3·Dialogue New Policy of a Company
ps:关于提议的新政策proposed提议;建议;打算;希冀;计划;求婚;propose的过去
分词
和过去式newpolicy新政策Yes,peoplethinkit'sa
羲之大鹅video
·
2023-12-07 00:06
扩散模型学习(三)
文章目录一、StableDiffusion使用二、管线的组成部分1.可变分自编码器(VAE)2.
分词
器(Tokenizer)和文本编码器(TextEncoder)3.UNet4.调度器(Scheduler
李明朔
·
2023-12-06 18:51
AIGC
学习
人工智能
Windows系统下Elasticsearch-7.15.2安装
一、环境此次笔记使用的运行环境以及软件版本系统:WIN10JDK版本:1.8Elasticsearch版本:7.15.2elasticsearch-head版本:最新IK
分词
器版本:7.15.2Kibana
高级盘丝洞
·
2023-12-06 13:14
windows
elasticsearch
大数据
NLP中几个简单的,字符串相似度计算方法
文章目录一、简单的需求二、技术需求:三、常见的几种简单技术四、几个示例1.使用编辑距离(LevenshteinDistance)2.使用Jaccard相似度3.使用jieba库进行
分词
以及结合余弦相似度来计算两个中文字符串相似度一
QuietNightThought
·
2023-12-06 09:23
深度学习
人工智能
nlp
使用中文维基百科训练word2vec模型
使用中文维基百科训练word2vec模型声明下载原始数据处理数据将下载后的文件转为txt文件将繁体中文转化为简体中文jieba
分词
训练模型测试模型参考声明本文作为个人学习笔记使用,考虑到有些网上教程即使收藏也存在一段时间后被删贴的可能
长沙知名李二狗
·
2023-12-06 07:13
自然语言处理学习笔记
word2vec
人工智能
自然语言处理
python统计三国高频词,画条形图,绘词云图
3、生成三国演义(下卷)词云图思路1.open打开读取整篇文档2.使用split()方法找到关键字,分开上下卷3.使用jieba进行中文
分词
4.使用Counter统计词频并将前10个高频词使用append
青衫木马牛
·
2023-12-06 00:07
python
python
开发语言
修改ES IK插件源码,配合MySQL实现词库热更新
ESIK词库热更新简介在实际工作中,我们经常需要更新ElasticSearch中IKAnalyzer插件的自定义词库,以获得更好的中文
分词
和搜索效果。
LittleMagic
·
2023-12-05 23:51
jieba库中自定义词典的词频含义,便于分出想要的词(自留笔记)
写论文的时候,数据处理用jieba
分词
,建立了自定义词典但怎么也分不出想要的词,搜了半天发现国内基本上没人写这个,所以写下来自用,也分享给做数据处理的小伙伴们。
NINI_likelike
·
2023-12-05 22:46
python
免费好用API合辑分享
中文
分词
:接收任意文本,将长段中文切词分开。
API小百科_APISpace
·
2023-12-05 21:14
2003年,“双星”陨落,带走了赵文卓最后的运气
印象最深刻的是,在节目中,赵文卓小组到了要
分词
的环节,但刘聪和热狗表示他们只会说唱,对于排舞不太擅长。赵文卓
麦大人
·
2023-12-05 12:39
elasticsearch聚合、自动补全、数据同步
、数据聚合1.1聚合的种类1.2DSL实现聚合1.2.1Bucket聚合语法1.2.2聚合结果排序1.2.3限定聚合范围1.2.4Metric聚合语法1.3RestAPI实现聚合二、自动补全2.1拼音
分词
器
蓝朽
·
2023-12-05 12:18
后端相关
elasticsearch
分布式搜索引擎elasticsearch(二)
例如:match_all全文检索(fulltext)查询:利用
分词
器对用户输入内容
分词
,然后去倒排索引库中匹配。例如:
weixin_50458070
·
2023-12-05 10:48
微服务
搜索引擎
分布式
elasticsearch
SnowNLP:处理中文文本内容
这是一个比yaha更加强大的中文
分词
工具。
nearvoid
·
2023-12-05 06:03
机器学习
基于Java、JSP中文
分词
的搜索引擎的设计与实现
为了更加深刻的理解这种技术,我使用Java编程技术实现了一个自己的搜索引擎——基于中文
分词
的搜索引擎。基于中文
分词
的搜索引擎是从指定的Web页面中按照超
哇呀数码科技屋
·
2023-12-05 06:51
javaweb
搜索引擎
中文分词
p2p
不规则动词
记忆法一:常见93个不规则动词的变化规律归纳如下:一、A—A—A型,即原形、过去式和过去
分词
三者都相同。
陈陈陈皮
·
2023-12-05 05:51
20191027快乐周末
我们用头肩手的动作来联系动词的原形/过去式/过去
分词
,比如:eat/ate/eaten,Go/went/gone,当老师读put/put/put,学生的双手一直都在头上,这是练习他们手与脑的协调能力,孩子们非常喜欢这样的练习
c59a0c880254
·
2023-12-05 04:37
DFA实现敏感词审查
需要自己维护一套敏感词,在文章审核的时候,需要验证文章是否包含这些敏感词1.2)敏感词-过滤技术选型方案说明数据库模糊查询%%效率太低String.indexOf(“”)查找数据库量大的话也是比较慢全文检索
分词
再匹配
余温的咖啡杯
·
2023-12-05 04:09
工具类
java
微服务
基于Langchain的txt文本向量库搭建与检索
中文
分词
类splitter.pyfromlangchain.text_splitterimportCharacterTextSplitterimportrefromtypingimpo
羊城迷鹿
·
2023-12-05 00:23
自然语言处理
langchain
默默背单词-342
2.dashing:[ˈdæʃɪŋ]v.猛冲(dash的现在
分词
)adj.(
ss的专属赫兹
·
2023-12-05 00:09
IK
分词
器源码解析(一):构造字典树
最近在搞ES,结合了IK
分词
器,偶然间看到IK的主词典中有27万的词,加上其他的拓展词库差不多也有小一百万了,于是比较好奇IK是如何判断用户输入的词是否在词库中的,于是索性下载了IK的源码读一读,接下来是
分词
流程的解析
Tristeza
·
2023-12-04 22:12
Java判断文本是否有敏感词
文章目录Java判断文本是否有敏感词实现方法一、总体流程二、实现步骤1、构建敏感词库2、加载敏感词库3、文本
分词
4、敏感词匹配Java判断文本是否有敏感词实现方法一、总体流程在Java中判断文本是否包含敏感词可以通过构建敏感词库并进行匹配来实现
林玖1024
·
2023-12-04 19:31
java
java
c#
开发语言
like bamboo shoots[2]
2.knit编织过去
分词
:knitted双写tnit幼虫,想想用蚯蚓编织的篮子knot打结knob门把手织毛衣三兄弟:stitch缝和needle针knit编织3.territorial领土的territory
花可名
·
2023-12-04 12:04
ElasticSearch学习笔记(3)· ES高级检索(query)
查询方式2、测试数据3、URL查询4、DSL查询5、DSL高级查询(Query)查询所有(match_all)查询结果中返回的指定条数(size)分页查询(from)查询结果中返回指定字段(_source)
分词
查询
发抖吧小喵喵
·
2023-12-04 10:40
ElasticStack
elasticsearch
Elasticsearch高级
mysql中的groupby分组,聚合可以实现对文档数据的统计、分析、运算,常见的聚合的分类有以下几种:桶(Bucket)聚合:用来对文档做分组TermAggregation:按照文档字段值分组(即不能够进行
分词
p1sto
·
2023-12-04 10:09
elasticsearch
android
大数据
spring
cloud
maven
java
spring
Go 程序编译过程(基于 Go1.21)
go/tree/release-branch.go1.21/src/cmd/compile大致过程如下:解析(cmd/compile/internal/syntax):词法分析器和语法分析器:源代码被
分词
-Hedon
·
2023-12-04 07:46
Go
编译原理
golang
编辑器
基于word2vec使用wiki中文语料库实现词向量训练模型--2019最新
pipinstallopencc进行安装方法2---网上有一个exe应用程序进行转换,详情见:https://bintray.com/package/files/byvoid/opencc/OpenCC四、
分词
五
锅巴QAQ
·
2023-12-04 05:31
NLP自然语言处理
word2vec
gensim
wiki中文语料库
词向量模型
高中语法专题(过去
分词
):过去
分词
作表语知识点综合讲解及习题专练(一)
1.表语:(1)定义:句子中系动词后面所接的那个部分;(2)系动词:分为be动词,后面能解形容词的感官动词及相当于be动词用法的实义动词。①be动词:am/is/are/was/were等;②后面接形容词的感官动词:feel/sound/look/taste/smell等;③相当于be动词用法的实义动词:become/keep/remain等。e.g.Tomisagooddoctor.Theyar
初高中英语学习资料
·
2023-12-04 03:55
mysql全文索引
MySQL从5.7.6版本开始,MySQL就内置了ngram全文解析器,用来支持中文、日文、韩文
分词
。
华妃
·
2023-12-03 21:38
mysql
数据库
database
mysql全文索引 插件_如何编写MySQL全文索引插件
通过全文检索,我们可以对文档、图片或者视频等丰富的数据类型进行
分词
,建立索引,以便进行快速的检索。
ae1915d
·
2023-12-03 21:36
mysql全文索引
插件
MySQL5.7 建立全文索引(中文
分词
)
缘由是他从来都使用空格来作为
分词
的分隔符,而对于中文来讲,显然用空格就不合适,需要针对中文语义进行
分词
。
一筐大白菜啊
·
2023-12-03 21:35
SQL
Mysql建立中英文全文索引(mysql5.7以上)
它能够利用【
分词
技术】等多种算法智能分析出文本文字中关键词的频率和
追风2019
·
2023-12-03 21:32
Mysql
mysql
mysql全文检索
mysql中英文检索
Innodb全文检索
springboot整合easy-es实现数据的增删改查
ES是基于倒排索引实现的,倒排索引中一个表相当于一个索引,表中的每条记录都是一个文档(JSON数据),系统会先对字段数据进行
分词
,然后给词条建立索引,并映射到文档id。
赫萝的红苹果
·
2023-12-03 17:17
spring
boot
elasticsearch
es
大型语言模型在实体关系提取中的应用探索
如:
分词
、语义识别、命名实体识别、实体关系识别等。其中,命名实体识别、实体关系识别在NLP任务中属于难度较大的任务。传统的NLP方案,一般针对不同的业务领域都要进行专门
colorknight
·
2023-12-03 14:33
数据科学计算
语言模型
人工智能
自然语言处理
LLM
知识图谱
实体关系抽取
Python-可视化单词统计词频统计中文
分词
可视化单词统计词频统计中文
分词
项目架构新建文件单词计数全文单词索引中文
分词
统计词频源代码项目架构新建一个文件,输入文件的内容,查询此文件中关键字的出现的次数,关键字出现的位置,将所有的文本按照中文
分词
的词库进行切割划分
coffee_mao
·
2023-12-03 10:40
java基础
python
中文分词
前端
蓝桥杯day03——Bigram
分词
1.题目给出第一个词first和第二个词second,考虑在某些文本text中可能以"firstsecondthird"形式出现的情况,其中second紧随first出现,third紧随second出现。对于每种这样的情况,将第三个词"third"添加到答案中,并返回答案。示例1:输入:text="aliceisagoodgirlsheisagoodstudent",first="a",secon
Python_1981
·
2023-12-03 09:47
#
蓝桥杯
蓝桥杯
python
《学术小白的学习之路 02》情感分析02 之基于大连理工情感词典的情感分析和情绪计算
原文链接文章目录书山有路勤为径,学海无涯苦作舟原文链接一.大连理工情感词典二、七种情绪的计算2.1pandas读取数据2.2导入大连理工大学中文情感词典2.3统计七种情绪的分布情况2.4增加中文
分词
词典和自定义的停用词典
驭风少年君
·
2023-12-03 03:26
情感分析
学术小白学习之路
自然语言处理
深度学习
js基础知识点总结
1.编译原理传统编译js编译编译发生在构建前1.
分词
/词法分析:代码分解为词法单元2.解析/语法分析:词法单元流转换成代表了程序语法结构的树(抽象语法树)3.代码生成:将抽象语法树(AST)转换成为可执行代码编译发生在代码执行前几微秒
曹吉利
·
2023-12-02 19:18
elasticsearch安装
分词
器插件
查看插件安装情况elasticsearch-pluginlist插件在线安装bin/elasticsearch-plugininstallanalysis-icu离线安装ik
分词
cdpluginswgethttps
_三石_
·
2023-12-02 19:40
elasticsearch
elasticsearch
大数据
机器学习实战 ——《跟着迪哥学Python数据分析与机器学习实战》(2)
机器学习实战——《跟着迪哥学Python数据分析与机器学习实战》(2)七、贝叶斯算法7.1新闻分类任务实战7.1.1结巴
分词
7.1.2词云表示工具包wordcloud7.1.3TF-IDF特征八、聚类算法
躬身入世,以生证道
·
2023-12-02 09:47
ML&DL技术栈
机器学习
AIGC: 关于ChatGPT中token和tiktoken工具
,或特定语言中的一个字符token负责将输入的文本数据转换为GPT可以处理的数据格式GPT不同模型的计费就是根据token来的token的拆分这里有一个tiktoken工具是openai开源的一个快速
分词
的工具可以将我们输入的文本的字符串去进行拆分
Wang's Blog
·
2023-12-02 09:20
AIGC
AIGC
elasticsearch的查询(更新中)
例如:match_all全文检索(fulltext)查询:利用
分词
器对用户输入内容
分词
,然后去倒排索引库中匹配。
无问287
·
2023-12-02 07:17
es学习
elasticsearch
json
大数据
elasticsearch安装ik中文
分词
器
一、概述elasticsearch官方默认的
分词
插件,对中文
分词
效果不理想。中文的
分词
器现在大家比较推荐的就是IK
分词
器,当然也有些其它的比如smartCN、HanLP。
shykevin
·
2023-12-02 07:13
java
linux
elasticsearch
python
nginx
SpringBoot整合ES客户端操作
past-releases不要装太新的,里面自己配置了jdk,太新的可能用不了,免安装的,解压就好浏览器输入:http://localhost:9200/返回json,表示启动成功了:ES索引操作下载
分词
器
shall_zhao
·
2023-12-02 04:35
spring
boot
elasticsearch
后端
知识图谱最简单的demo实现
一、简介知识图谱整个建立过程可以分为以下几点:数据处理创建三元组可视化展示其中:数据预处理:
分词
、命名实体识别、语义角色识别、句法依存分析等创建三元组:需要根据命名实体识别、语义角色识别结果进行处理,建立规则生成三元组用用图数据库或者接触可视化工具进行展示二
Andy_shenzl
·
2023-12-02 04:32
NLP
知识图谱
人工智能
RNN:文本生成
文章目录一、完整代码二、过程实现2.1导包2.2数据准备2.3字符
分词
2.4构建数据集2.5定义模型2.6模型训练2.7模型推理三、整体总结采用RNN和unicode
分词
进行文本生成一、完整代码这里我们使用
Bigcrab__
·
2023-12-02 02:15
#
深度学习
NLP
rnn
人工智能
深度学习
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他