E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
hanlp中文分词
自然语言处理学习笔记(三)————
HanLP
安装与使用
目录1.
HanLP
安装2.
HanLP
使用(1)预下载(2)测试(3)命令行(4)测试样例3.py
hanlp
可视化4.
HanLP
词性表1.
HanLP
安装
HanLP
的Python接口由py
hanlp
包提供,
阿波拉
·
2023-08-03 18:50
自然语言处理
笔记
nlp
hanlp
python
何晗
pyhanlp
自然语言处理学习笔记(二)————语料库与开源工具
目录1.语料库2.语料库建设(1)规范制定(2)人员培训(3)人工标注3.中文处理中的常见语料库(1)
中文分词
语料库(2)词性标注语料库(3)命名实体识别语料库(4)句法分析语料库(5)文本分类语料库4
阿波拉
·
2023-08-03 18:19
自然语言处理
学习
笔记
语料库
brat
hanlp
nlp
基于IKAnalyzer lucener的
中文分词
-java版本
用到2个jar包,本别是lucene-core和IKAnalyzer-lucene,版本号一定要对应,见pox.xml的版本号我这里用的maven仓库地址是:https://maven.aliyun.com/repository/central和https://maven.aliyun.com/repository/publicpox.xml里面的配置如下:com.jianggujinIKAnal
zhaoyang66
·
2023-08-02 22:51
智能语音系统,AI智能语音怎样设计话术?
相关技术介绍
中文分词
本文描述的设计思路,可以不需要进行
中文分词
。当然如果你有合适你开发语言的分词引擎,也可以先分词。
OKCC_kelaile520
·
2023-08-02 13:23
WX机器人kelaile520
人工智能
自然语言处理
机器人
云计算
语音识别
网络
Haystack + Whoosh + jieba进行全文搜索
中文分词
Jieba,由于Whoosh自带的是英文分词,对中文的分词支持不是太好,故
闲鱼!!!
·
2023-08-02 13:29
框架
jieba分词
jieba(结巴)是一个强大的分词库,完美支持
中文分词
,本文对其基本用法做一个简要总结。
她即我命
·
2023-08-02 11:05
10.
HanLP
实现k均值--文本聚类
笔记转载于GitHub项目:https://github.com/NLP-LOVE/Introduction-NLP10.文本聚类正所谓物以类聚,人以群分。人们在获取数据时需要整理,将相似的数据归档到一起,自动发现大量样本之间的相似性,这种根据相似性归档的任务称为聚类。10.1概述聚类聚类(clusteranalysis)指的是将给定对象的集合划分为不同子集的过程,目标是使得每个子集内部的元素尽量
mantch
·
2023-08-02 02:05
【Docker】Docker安装Elasticsearch服务的正确方式
Elasticsearch2.Docker安装Elasticsearch2.1确定Elasticsearch的版本2.2.Docker安装Elasticsearch2.3.给Elasticsearch安装
中文分词
器
Fire Fish
·
2023-08-01 21:15
Docker
docker
elasticsearch
【Docker】Docker安装MySQL、Redis、RabbitMQ、Elasticsearch、Nacos等常见服务(质量有保证,详情讲解)
RabbitMQ2.4.Docker单独安装Elasticsearch2.4.1确定Elasticsearch的版本2.4.2Docker安装Elasticsearch2.4.3给Elasticsearch安装
中文分词
器
Fire Fish
·
2023-08-01 21:45
Docker
docker
Elasticsearch安装与分词插件、用户词典、同义词配置等
简介本文介绍了全文搜索引擎Elasticsearch的安装过程,以及ik
中文分词
插件、用户词典、同义词的配置。
lerry_lca
·
2023-08-01 16:14
工具与中间件
java
数据仓库
elasticsearch
中文分词
全文检索
开源
中文分词
Ansj的简单使用
ANSJ是由孙健(ansjsun)开源的一个
中文分词
器,为ICTLAS的Java版本,也采用了Bigram+HMM分词模型:在Bigram分词的基础上,识别未登录词,以提高分词准确度。
风萧萧1999
·
2023-08-01 12:12
中文分词
自然语言处理
jieba分词
jieba主要用于Python
中文分词
,主要有以下3种特性:支持3种分词模式:精确模式、全模式、搜索引擎模式支持繁体分词支持自定义词典#导入jiebaimportjiebaimportjieba.possegaspseg
米小河123
·
2023-08-01 02:49
文本计算
2.2
中文分词
分词模式2importjieba#精准模式print("|".join(jieba.cut("今天天气不错,我来到北京野生动物园,在野生动物园看到有很多凶猛的动物",cut_all=False
叫兽吃橙子
·
2023-07-31 10:53
只需五步 集成新版 Elasticsearch7.9 中文搜索 到你的 Laravel7 项目
只需五步骤:启动集成ik
中文分词
插件的Elasticsearch7.9Docker镜像Laravel7配置Scout配置Model模型导入数据搜索PHP进阶30K资料,免费获取:【社群福利】30G-PHP
PHP9年架构师
·
2023-07-30 12:27
java课程设计团队博客《基于学院的搜索引擎》
JAVA课程设计基于学院网站的搜索引擎对学院网站用爬虫进行抓取、建索(需要
中文分词
)、排序(可选)、搜索、数据摘要高亮、分页显示。Web界面。
dycsy
·
2023-07-29 08:22
py
hanlp
的安装方法
1、安装jdk先确认自己电脑有没有jdk,还需要添加环境变量2、安装JPype1pipinstall-ihttps://pypi.douban.com/simpleJPype13、安装py
hanlp
pipinstall-ihttps
纬领网络
·
2023-07-28 21:23
linux
运维
服务器
pyhanlp
N-Gram+最短路径分词
网上的相关文章已经是相当相当少了,最出名的就是NLPIR分词中采用了这种方法(貌似最早也是这个分词工具的作者提出的)相关文章自然语言处理中的N-Gram模型详解自然语言处理中N-Gram模型的Smoothing算法
HanLP
matrices
·
2023-07-28 08:42
浅谈
中文分词
与自然语言处理
最近出于兴趣和需要,重新回顾
中文分词
技术,期间有些心得,以及一些关于自然语言处理的浅薄之见,这里简单分享一下。
iamlightsmile
·
2023-07-28 05:33
Python文本处理
前言本文主要介绍python文本处理算法代码主要应用和一些基本原理一、常用库1.Jiebajieba是支持
中文分词
的第三方库。
noobiee
·
2023-07-27 11:19
Python开发
python
中文分词
自然语言处理
28.2 IK分词器
IK分词器在是一款基于词典和规则的
中文分词
器。1.1Analysis分词Analysis-文本分析是把全文本转换一系列单词的过程,叫分词。
LB_bei
·
2023-07-26 23:55
JavaEE
java
中文分词
ik 分词器怎么调用缓存的词库
IK分词器是一个基于Java实现的
中文分词
器,它支持在分词时调用缓存的词库。要使用IK分词器调用缓存的词库,你需要完成以下步骤:创建IK分词器实例首先,你需要创建一个IK分词器的实例。
猹里。
·
2023-07-26 19:30
缓存
自然语言处理应用程序设计
原文地址:https://zhanghan.xyz/posts/22426/文章目录一、摘要二、数据集三、相关环境四、功能展示1.系统主界面2.
中文分词
3.命名实体识别4.文本分类5.文本聚类6.其他界面五
.别拖至春天.
·
2023-07-26 11:03
AI小程序
python
自然语言处理
人工智能
pyqt
分词
文本分类
文本聚类
命名实体识别
【自然语言处理】分词工具与问答系统
Part1:搭建一个分词工具Part1.1基于枚举方法来搭建
中文分词
工具此项目需要的数据:综合类中文词库.xlsx:包含了中文词,当做词典来用以变量的方式提供了部分unigram概率word_prob举个例子
孟知之
·
2023-07-25 19:10
自然语言处理
nlp
自然语言处理
分词工具
问答系统
【
HanLP
】--自然语言处理场景应用
目录一、前言二、Springboot集成
HanLP
三、
HanLP
分词四、
HanLP
的关键字提取一、前言
HanLP
是由一系列模型与算法组成的工具包,主要功能包括分词、词性标注、关键词提取、自动摘要、依存句法分析
DreamBoy_W.W.Y
·
2023-07-25 17:42
大数据/智能
自然语言处理
人工智能
docker容器里,给Elasticsearch卸载x-pack插件,安装ik
中文分词
插件
卸载x-pack插件,安装ik普通环境查看安装了哪些插件卸载x-pack安装ikdocker容器里普通环境查看安装了哪些插件./bin/elasticsearch-pluginlist卸载x-pack./bin/elasticsearch-pluginremovex-pack原因:x-pack是收费的,而且费用很高(一年几十万),生产环境无法承担如此费用,弃用。安装ik./bin/elastics
坚持是一种态度
·
2023-07-24 22:22
数据库及存储技术
docker
elasticsearch
卸载x-pack
安装ik中文分词
Elasticsearch/Enterprise Search/Kibana安装记录
安全功能重新配置节点以加入现有集群启用系统索引的自动创建功能运行Elasticsearch(在systemd下)检查Elasticsearch是否正在运行Elasticsearch配置外网访问第三方包安装elasticsearch-analysis-ik
中文分词
雪球干死黄旭东
·
2023-07-24 16:35
Y类分类_文档型数据库
搜索引擎
Java分词工具:word
word分词器主页:https://github.com/ysc/wordword分词是一个Java实现的
中文分词
组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。
进击的小鹿
·
2023-07-24 10:48
Springboot 整合Elasticsearch
Elasticsearch6.2.2的zip包,并解压到指定目录,下载地址:https://www.elastic.co/cn/downloads/past-releases/elasticsearch-6-2-2安装
中文分词
插件
盼旺
·
2023-07-23 06:46
数据处理轻松搞定:如何利用PaddleNLP高效处理大规模文本数据
目录前言一、paddleNLP介绍、特性1-1、介绍1-2、特性介绍二、paddleNLP安装三、PaddleNLP一键使用3-1、
中文分词
3-2、词性标注3-3、命名实体识别3-4、依存句法分析(DDParser
ㄣ知冷煖★
·
2023-07-20 05:37
自然语言处理
nlp
自然语言处理
paddlepaddle
对中国四大名著--红楼梦 使用jieba进行分词处理 排除去停词 统计完整词频并按降序排列 前20词绘制词云图
jieba是目前表现较为不错的Python
中文分词
组件,并且有:支持四种分词模式:精确模式全模式搜索引擎模式p
小唐YiJiaTang
·
2023-07-19 10:22
python
python
开发语言
Elasticsearch的插件和扩展有哪些?如何使用和开发插件?Elasticsearch的性能调优有哪些经验和技巧?
以下是一些常见的插件和扩展:分析器插件:用于自定义文本分析的行为,如
中文分词
器、同义词扩展等。运维管理插件:用于集群监控、性能调优、日志管理等,如Elasticsearch-HQ、Kopf等。
luoluoal
·
2023-07-19 07:24
java基础
elasticsearch
jenkins
大数据
中文分词
入门:使用IK分词器进行文本分词(附Java代码示例)
1.介绍
中文分词
是将连续的中文文本切分成一个个独立的词语的过程,是中文文本处理的基础。IK分词器是一个高效准确的
中文分词
工具,采用了"正向最大匹配"算法,并提供了丰富的功能和可定制选项。
程序员-小李
·
2023-07-18 14:07
SpringBoot
好用工具
中文分词
java
python
Python可视化单词统计词频统计
中文分词
的实现步骤
目录可视化单词统计词频统计
中文分词
项目架构新建文件单词计数全文单词索引
中文分词
统计词频源代码可视化单词统计词频统计
中文分词
项目架构新建一个文件,输入文件的内容,查询此文件中关键字的出现的次数,关键字出现的位置
·
2023-07-18 09:30
HanLP
《自然语言处理入门》笔记--6.条件随机场与序列标注
笔记转载于GitHub项目:https://github.com/NLP-LOVE/Introduction-NLP6.条件随机场与序列标注本章介绍一种新的序列标注模型条件随机场。这种模型与感知机同属结构化学习大家族,但性能比感知机还要强大。为了厘清该模型的来龙去脉,我们先对机器学习模型做番柿理。然后结合代码介绍条件随机场理论,探究它与结构化感知机的异同。6.1机器学习的模型谱系机器学习的模型谱系
mantch
·
2023-07-18 04:44
Python结巴
中文分词
笔记
jieba库基本介绍jieba库概述Jieba是一个流行的
中文分词
库,它能够将中文文本切分成词语,并对每个词语进行词性标注。
逸峰轻云
·
2023-07-16 04:41
python
中文分词
笔记
SpringBoot 整合 Elasticsearch (超详细)
超详细)注意:1、环境搭建安装esElasticsearch6.4.3下载链接为了方便,环境使用Windows配置解压后配置找到config目录的elasticsearch.yml分词器默认的Es是不支持
中文分词
的
look-word
·
2023-07-15 10:46
SpringBoot
elasticsearch
spring
boot
搜索引擎
Django_haystack全文搜索
jieba是一款免费的
中文分词
包,如
bug捕手
·
2023-07-14 23:12
Django
django
python
后端
程序人生
测试开发
软件测试
软件测试工程师
java list map
*;publicclassu{/***List>confList=u.list(*u.map(*k.word,"今天"*,k.nature,
HanLP
Util.time*)*,u.map(*k.word
Jonathan Star
·
2023-07-14 15:08
springboot
tool
java
java
list
c#
Elasticsearch入门
可以提供实时的搜索服务:可以提供实时的搜索服务便于水平扩展,每秒可以处理PB级海量数据:集群式部署,可以加服务器Elasticsearch术语索引、类型、文档、字段集群、节点、分片、副本下载Es将Es加入到zshrc中
中文分词
插件下载
back2childhood
·
2023-07-14 07:24
java杂文
elasticsearch
jenkins
大数据
文本分析-使用Python做词频统计分析
如果文章对你有帮助的话,欢迎评论点赞收藏加关注+前言前面我们已经介绍了文本分析中的
中文分词
和去除停用词,这篇文章将详细介绍分词后如何进行词频统计分析。
艾派森
·
2023-06-23 14:24
文本分析
数据分析
python
Java 结合
中文分词
库 jieba 统计一堆文本中各个词语的出现次数【代码记录】
文章目录1、需求2、代码3、结果1、需求2、代码packagecom.zibo.main;importcom.huaban.analysis.jieba.JiebaSegmenter;importjava.io.BufferedReader;importjava.io.FileReader;importjava.io.IOException;importjava.util.HashMap;impo
訾博ZiBo
·
2023-06-23 07:41
Java
java
中文分词
开发语言
【ElasticSearch】
中文分词
器
ES默认的analyzer(分词器),对英文单词比较友好,对
中文分词
效果不好。不过ES支持安装分词插件,增加新的分词器。1、如何指定analyzer?
迪迪迦
·
2023-06-23 05:16
elasticsearch
elasticsearch
Elasticsearch分词器
前奏es的chinese、english、standard等分词器对
中文分词
十分不友好,几乎都是逐字分词,对英文分词比较友好。
metabit
·
2023-06-22 15:59
#
ELK
elasticsearch
搜索引擎
NLP的学习
尽管现在NLP中有很多算法以字来切分,比如bert,
中文分词
仍然是NLP中很重要、很基础的一块工作。3.分词工具目前,已经有许多开源的
中文分词
工具,比如
心海泪雨
·
2023-06-22 13:09
nlp
python 基础知识:使用jieba库对文本进行分词
Python的jieba库是一个
中文分词
工具,它可以将一段中文文本分割成一个一个的词语,方便后续的自然语言处理任务,如文本分类、情感分析等。
茜茜是帅哥
·
2023-06-22 06:46
python基础
python
开发语言
pycharm
自然语言处理(NLP)之pyltp的介绍与使用(
中文分词
、词性标注、命名实体识别、依存句法分析、语义角色标注)
它提供的功能包括
中文分词
、词性标注、命名实体识别、依存句法分析、语义角色标注等。pyltp是LTP的Python封装,同时支持Python2和Python3版本。
IT之一小佬
·
2023-06-21 00:35
自然语言处理
nlp
自然语言处理
机器学习
深度学习
人工智能
【无标题】
快速上手githubltpLTP4PYLTP(目前版本0.4)NLP入门学习3——句法分析(基于LTP4)哈工大语言云平台LTP的安装和Python使用自然语言处理(NLP)之pyltp的介绍与使用(
中文分词
xiao助阵
·
2023-06-21 00:02
自然语言处理
人工智能
java计算文本相似度与关键词
java计算文本相似度与关键词物料准备:1.ansj_seg和
hanlp
的依赖2.定义工具类,用来计算两段文本的相似度,以及从文本中提取关键词(摘要)3.配置ansj_seg框架需要的dic词典pom.xml
ThinkPet
·
2023-06-20 09:06
JavaSE笔记
java
hanlp
ansj_seg
文本相似度
文本摘要提取
文本分词
Python制作词云图
fromlxmlimportetree#页面解析包importwordcloud#词云图包importmatplotlib.pyplotasplt#画图包fromPILimportImage#图片处理包importjieba#
中文分词
Tokiea
·
2023-06-20 00:33
HanLP
分词
官网地址:https://github.com/hankcs/
HanLP
/releases/tag/v1.8.3比较好的
hanlp
教学文章https://blog.51cto.com/u_15344287
g3230863
·
2023-06-19 05:18
ELK
java
spring
boot
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他