E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Sphinx中文分词
关于python的whl文件安装踩坑
一、直接安装首先直接安装的命令(以pocket
sphinx
为例)(最后一个似乎是国外源,用的时候有时候会出现10054,主要还是前两个)。
qq_57928569
·
2023-03-28 20:55
python
PyNLPIR的license问题
PyNLPIR是张华平博士的
中文分词
系统NLPIR/ICTCLAS的python版本github地址:https://github.com/tsroten/pynlpir按照PyNLPIR的README.rst
flamexyz
·
2023-03-28 04:39
NLP之gensim库python实现文本相似度/匹配/查重
算法:模型选择1、基于word2vec的词语相似度计算模型2、python的实现用到了gensim库3、“jieba”
中文分词
分步实现:jieba.cut方
python小智
·
2023-03-28 00:47
AI之NLP:自然语言处理技术简介(是什么/学什么/怎么用)、常用算法、经典案例之详细攻略(建议收藏)daiding
1、NLP前置技术解析2、python中NLP技术相关库3、NLP案例实践3.1、机器翻译3.2、语音识别(AutomaticSpeechRecognition)3.3、
中文分词
3.4、词件标注与命名实体识别
一个处女座的程序猿
·
2023-03-27 16:44
NLP
python
人工智能
开发语言
ElasticSearch(1)入门与使用
2.2index:2.3type:2.4Mapping:2.5Document:3.基本操作:3.1创建索引index与映射mapping3.2删除索引:3.3新增与修改文档3.4删除文档3.5数据查询3.6IK
中文分词
器
机智的老刘明同志
·
2023-03-27 07:59
Sphinx
搜索引擎 Coreseek
中文分词
搜索引擎安装使用,站内搜索
Sphinx
搜索引擎Coreseek
中文分词
搜索引擎安装使用,站内搜索,php简单使用;一.简介Coreseek是一款中文全文检索开源软件,基于
Sphinx
研发并独立发布,专攻中文搜索和信息处理领域,适用于行业
一件小毛衣
·
2023-03-27 00:11
NLP系列-
中文分词
(基于统计)
上文已经介绍了基于词典的
中文分词
,现在让我们来看一下基于统计的
中文分词
。
城市中迷途小书童
·
2023-03-26 12:07
ElasticSearch
中文分词
器对比
常用的
中文分词
器SmartChineseAnalysis:官方提供的
中文分词
器,不好用。
阳关彩虹小白马
·
2023-03-26 04:56
英文文献、英文 API 文档、英文教程、Python 包等的中文翻译集合
当前已经翻译成中文的资料有(大部分项目使用
sphinx
-intl辅助翻译):项目预览完成度源码库说明pypa.io完成大部分d
水之心
·
2023-03-25 19:45
创建
Sphinx
+ GitHub + ReadtheDocs托管文档
最新博客链接"Tsanfer'sBlog"创建
Sphinx
+GitHub+ReadtheDocs托管文档Readthedocs在线电子书链接image
Sphinx
GithubReadthedocsimage
田三番
·
2023-03-25 12:52
语音识别语言模型和拼音字典文件制作
接我前面的文章,下载pocket
sphinx
和中文模型文件。由于模型文件格式有一些要求,所以建议对模型文件的编辑都在Linux上完成。
kongxx
·
2023-03-24 20:28
搭建一个分词工具 Python版
一、基于枚举方法来搭建
中文分词
工具最简单的分词是不依赖语句关系的,每一个词都是独立的,叫unigram语言模型有unigram->bi-gram->n-gram从简单到难,
学人工智能的菜菜
·
2023-03-24 12:55
C++ Doxygen + Breathe +
Sphinx
生成接口文档
#-----------------------------------------------------------------------------生成文档(Doxygen+Breathe+
Sphinx
haoxiangnia111
·
2023-03-24 11:00
c++
sphinx
java
基于统计的中文词语提取
因为公司使用基于词典的机械
中文分词
方法,需要一个完备的词典才能有好的效果。而关键词提取的效果又依赖于
中文分词
效果的好坏。所以开始的初衷是找出一些原始词典里没有的词,来改善
中文分词
的效果。
SHAN某人
·
2023-03-24 06:36
coreseek安装使用
本文引自:http://www.phperz.com/article/14/0615/95.html
sphinx
的安装使用,其实都是大同小异,以下以coreseek安装为例Coreseek是一款中文全文检索
school_1087
·
2023-03-24 04:07
第三课 solr之Ik中文分析器的安装
安装
中文分词
器需要用到solrhome\collection1\conf下的schema.xml文件。所以有必要先说一下这个xml文件。
Arroganter
·
2023-03-22 12:06
ElasticSearch(1):Windows 系统下 安装 Kibana 、IK 、ES
IK是
中文分词
器,属于第三方的。当然es本身也有分词器,但是IK是中文使用。这里我所使用的是ElasticSearch7.4.0稍后我会上传者三个软件的链接。
小炉炉
·
2023-03-21 08:14
中文分词
1-传统模型
中文博大精深,而
中文分词
是利用计算机完成中文各种复杂应用的基础。本教程试图循序渐进、由浅入深的开发一系列简单的
中文分词
系统。
bearcatty
·
2023-03-21 07:41
应用文章
RNN
深度学习
分词
自然语言处理
机器学习
深度学习
分词
SVM
RNN
黑猴子的家:Elasticsearch 默认
中文分词
器的效果
针对词条查询(TermQuery),查看默认
中文分词
器的效果[victor@hadoop102elasticsearch]$curl-XGET\'http://hadoop102:9200/_analyze
黑猴子的家
·
2023-03-21 05:47
Sphinx
环境配置及VScode编写Rst文档转html的步骤
目录
Sphinx
环境配置python安装步骤
Sphinx
安装步骤Rst语法格式标题格式超链接格式图片格式代码格式总结
Sphinx
环境配置安装python3通过python3安装
sphinx
sphinx
官方网站
·
2023-03-21 00:34
Elasticsearch的基本操作
1.es的集成ik分词1.1ik分词IKAnalyzer是一个开源的,基于java语言开发的轻量级的
中文分词
工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了3个大版本。
wudl
·
2023-03-20 15:59
奇特的山魈
今天林老师带着小朋友们做的是我们的动物山魈(学名:Mandrillus
sphinx
),世界上最大的猴科灵长类动物。
青青子衿Conval
·
2023-03-20 11:19
Elasticsearch之
中文分词
器插件analysis-ik的自定义词库
概述在使用Elasticsearch搜索关键词的时候,有时候发现一些短语没被分词器识别出来,比如"这本书今年首次公开发售",此时搜"公开发售",这个短语命中不了,此时需要用到自定义的词库。analysis-ik添加自定义词库首先在Elasticsearch的ik插件plugins\analysis-ik\config目录下创建custom目录,然后创建my.dic文件之后,就可以在文件里添加自己想
singleZhang2010
·
2023-03-20 02:20
2018-04-01
深入学习Redis(1):Redis内存模型HanLP自然语言处理包开源全文检索Solr集成HanLP
中文分词
HanLP极致简繁转换OpenChineseConvert開放中文轉換从Elasticsearch
baitu
·
2023-03-19 18:20
ElasticSearch Analyzer
,名词】会将数据解析成多个短语【英文文档中叫做tokensorterms】,用这些短语建立倒排索引;查询:查询时,分词器将查询条件解析成多个短语从倒排索引中查询数据;ES预置了很多分词器,很遗憾,没有
中文分词
器
AngryApe
·
2023-03-19 13:58
基于snownlp的二次训练
1、snownlp是一个处理中文的类库,有
中文分词
、词性标注、情感分析、文本分类、拼音、繁简、提取关键词摘要等功能。下载后可以直接用,不用训练。
Paddle
·
2023-03-18 22:11
sphinx
编码 php文档,用
Sphinx
编写技术文档
用
Sphinx
编写技术文档大家会发现,如果一个项目主要是用Python写的,其文档都很类似,比如:Python在线的HTML官方手册。这些项目的文档都来源于一个很不错的项目:
Sphinx
。
侯帅英
·
2023-03-18 19:34
sphinx
编码
php文档
Sphinx
入门指南
目录引言使用步骤引言
Sphinx
是什么?A:
Sphinx
是一个自动生成文档的工具,可以用简洁的语法快速生成优雅的文档。哪些场景要用
Sphinx
?
Liekkas Kono
·
2023-03-18 19:03
工具
sphinx
文档自动生成
关于
sphinx
– 我有话要说
原创文章,转载请注明:转载自下雨天本文链接地址:关于
sphinx
–我有话要说让子弹飞里面是唱着歌吃着火锅,我这是听着歌写着博客,细细想来,生活本该如此…前段时间被工作搞得欲仙欲死,终于偷来一点闲暇看看自己究竟整了些啥玩意儿
ioniconline
·
2023-03-18 19:30
Web开发-搜索篇
web开发
搜索
sphinx
Sphinx
常用插件汇总
目录
Sphinx
是什么?
Sphinx
常用插件(仅测试适用于
sphinx
-rtd-theme)参考资料
Sphinx
是什么?
Sphinx
是一个文档生成工具,它能够轻易地创建智能和优雅的文档。
Liekkas Kono
·
2023-03-18 19:27
工具
sphinx
文档生成工具
Django+haystack+whoosh+jieba全文检索实现
django实现全文检索功能主要靠haystack框架,而用的最多的全文检索引擎就是whoosh,jieba主要用于
中文分词
,whoosh自带的分词是英文的。
libdream
·
2023-03-18 15:16
自然语言处理中的分词算法实现
最近实现的3种
中文分词
算法基于最大匹配(前向匹配、后向匹配、双向匹配)HMMn-gram基于最大匹配算法(基于词典)最大前向匹配从左到右取待切分汉语句的m个字符作为匹配字段,m为词典中最长词条个数。
Van_Tinker
·
2023-03-18 06:13
语音识别CMU
Sphinx
(3)特征信息的提取
为了能在安卓Demo中提取出有用的信息,先来参考.c源码(因为AndroidDemo是用JNI封装了一下.c实现的).c源码中所需要的声学分数提取INFO这里我想要的就是startendascr等参数,查看continuous.c源代码,主要的逻辑如下//当能够读到音频时一直进行while((k=fread(adbuf,sizeof(int16),2048,rawfd))>0){ps_proces
Seeker_zz
·
2023-03-18 01:52
从零开始实现
中文分词
器(1)
分词器介绍一直以来
中文分词
都是比较头痛的事情,因为不像英语那样,词语之间有空格隔开。(其实英文也有词组分割问题)最早的
中文分词
方法就是查字典:把一个句子从左到右扫描一遍,
右丶羽
·
2023-03-17 15:41
奇特的山魈
今天林老师带着小朋友们画的是我们的动物山魈(学名:Mandrillus
sphinx
),世界上最大的猴科灵长类动物。
青青子衿Conval
·
2023-03-17 01:20
jieba分词的安装与使用
Jieba是一个
中文分词
组件,可用于中文句子/词性分割、词性标注、未登录词识别,支持用户词典等功能。该组件的分词精度达到了97%以上。
呆萌的我爱丽丝
·
2023-03-15 18:41
Docker容器启动失败如何修改配置
1.背景在给es安装ik
中文分词
器时,两者版本不对应,导致容器启动失败,es:5.6.12,ik:6.8.102.解决办法这种问题就只能把原有的文件夹删除,无法进入容器,只有使用dockercp把文件夹拷到本地
完美明天cxp
·
2023-03-15 14:30
容器
docker
【NLP
中文分词
】一、规则分词之最大匹配法
基于规则的分词主要是通过维护词典(词典尽可能含有中文的所有词语),在切分语句时,将语句的每个字符串与词表中的词进行逐一匹配找到则切分,否则不予切分。主要有正向最大匹配法、逆向最大匹配法以及双向最大匹配法三种方法。1.正向最大匹配法算法:从左向右取待切分汉语句的前m个字符(m为词典里最长的词字符数);若这m个字符属于词典里面的词,则称匹配成功,然后将这m个字符切分出来,剩下的词语作为新的待切分汉语句
Rashawn
·
2023-03-14 18:56
自然语言处理系列七》
中文分词
》规则分词
*注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书自然语言处理系列七
中文分词
中文分词
(ChineseWordSegmentation)指的是将一个汉字序列切分成一个一个单独的词。
充电了么
·
2023-03-14 04:32
TaskTwo-20190304
中文分词
根据实现原理和特点,主要分为基于词典分词算法和基于统计的机器学习算法。我们主要讨论基于词典分词算法的方法:正向最大匹配法、逆向最大匹配法和双向匹配分词法。
XIN_fc5e
·
2023-03-12 13:57
金伟的python学习笔记--分词与词云
python金伟的学习笔记用学习强国部分题库制作的词云.jpeg分词技术(jieba分词)安装:pipinstalljieba算法介绍:结巴
中文分词
涉及到的算法包括:(1)基于Trie树结构实现高效的词图扫描
兴化吴奇隆
·
2023-03-10 10:36
从搜索说算法
1、网页抓取搜索引擎通过爬虫将网页爬取,获得页面HTML代码存入数据库中2、预处理索引程序对抓取来的页面数据进行文字提取,
中文分词
,(倒排)索引等处理,以备排名程序使用3、排序排名程
rosy_dawn_f742
·
2023-03-09 19:01
HMM
中文分词
隐马尔科夫模型HMM通常用于处理时间序列数据,数据包含长度一样的隐藏状态和观测序列,可以通过观测数据预测出隐藏状态。例如在分词时,观测序列是”我喜欢计算机“,其中每个字对应的隐藏状态是”SBEBME“。HMM也可以用于语音识别,给定一段音频(观测序列),识别出里面的每个文字(隐藏状态)。1.马尔科夫模型假设系统拥有不同的状态,每个时刻状态都会发生变化,我们可以用马尔科夫模型总结出系统状态变化的规律
NLP与人工智能
·
2023-03-09 04:11
别只会搜日志了,求你懂点检索原理吧
上篇:讲解ES的原理、
中文分词
的
悟空聊架构
·
2023-02-28 10:46
Elasticsearch
搜索引擎
elasticsearch
全文检索
visual ANP 方便迁移的PHP环境
集成的软件有:Apache、PHP、MySQL、Redis、Memcached、
Sphinx
、MongoDB、FileZillaFTP、Xdebug、ZendGuardL
sniper表哥
·
2023-02-18 06:15
只需五步 集成新版 Elasticsearch7.9 中文搜索 到你的 Laravel7 项目
ar4145分钟集成新版Elasticsearch7.9中文搜索到你的Laravel7项目只需五步骤:启动集成ik
中文分词
插件的Elasticsearch7.9Docker镜像Laravel7配置Scout
9c1fd88cfd08
·
2023-02-17 23:28
小白傻瓜式ChatGPT免费使用教程详细教学
我展示了两个问题问题一:用python写一个学生信息管理系统问题二:用python进行
中文分词
数学是算法的灵魂
·
2023-02-17 09:19
深度学习-自然语言处理nlp
ChatGPT
gpt
restfulAPI的基本操作
elasticsearchAPI的参考常用APIIK分词器即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的
中文分词
是将每个字看成一个词
EternalWater
·
2023-02-17 05:27
Sphinx
实时搜索设计探讨
背景
Sphinx
是一个全文搜索引擎,虽然官方没对
中文分词
检索做直接支持,但是配合coreseek还是能很好地实现中文全文检索的。
JobinLi
·
2023-02-07 03:53
c多线程并发处理方式_ElasticSearch 并发的处理方式:锁和版本控制
ElasticSearch从安装开始ElasticSearch第三弹,核心概念介绍ElasticSearch中的
中文分词
器该怎么玩?Elasti
weixin_39897887
·
2023-02-06 22:27
c多线程并发处理方式
springboot
api版本控制
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他