E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
词库
Postgresql中文分词zhparser学习(一)
1.准备工作Postgresql安装中文分
词库
此次使用SCWS以及zhparser,所以需要先准备好这两个安装包。
saiami
·
2020-07-15 15:53
Postgresql
Elasticsearch——IK分词器自定义
词库
二、新建
词库
文件很显然,这
大海_sea
·
2020-07-15 11:49
ElasticSearch
对不背单词的一些看法
真的太少去参加了不背单词的面试,才发现了不背单词的产品策略和自己想象得完全不一样总结性看法一个简洁的背单词软件:如果你只是想背单词我只会推荐“不背单词”给你但是我在使用中遇到一些问题先说一个功能性问题,几乎不支持编辑
词库
木头项
·
2020-07-15 09:50
Elasticsearch配置ik中文分词器自定义
词库
1.IK配置文件在config目录下:IKAnalyzer.cfg.xml:配置自定义
词库
main.dic:分词器自带的
词库
,索引会按照里面的词创建quantifier.dic:存放计量单位词suffix.dic
旧言.
·
2020-07-15 08:20
《诗词达人》接口文档
以下接口如无特殊说明,调用url统一为https://fl123.xyz/api/poetry/****.php.下面是各文件的详细说明getPoList获取诗
词库
功能:获取诗
词库
的列表,返回值是诗词的名字的集合
酆仙深
·
2020-07-15 06:00
Elasticsearch
词库
扩充实践
但这些往往不能满足实际的项目需求,今天就和大家交流一下ES如何扩充自定义
词库
。话不多说,直奔主题。
丿SeeYouAgain
·
2020-07-14 13:43
ElasticSearch
姑娘,别太汉子,请娘一点
不知道从什么时候起,“女汉子”这个词,就像春风吹拂大地,吹进了每个人的脑壳里,也成了人们大脑
词库
里使用率前几名的词组。
鹿在鸣
·
2020-07-14 13:38
用AutoCompleteTextView实现历史记录提示
这画面不陌生吧,百度的提示,他的
词库
并不是历史记录,是搜索引擎收集的当前最常搜索的内容。假如我们也要在android的应用实现如上功能怎么做呢?
iamkila
·
2020-07-14 11:34
android
jieba分词 自定义词表简介
一、jieba分词增加自定义词表在使用jieba分词时经常会发现一些未登录词,因此增加领域词表就变得很重要,下面提供增加几种途径:1、领域权威词汇字典2、搜狗输入法领域
词库
、百度输入法领域
词库
3、jieba
feng98ren
·
2020-07-14 10:21
Python
1006:阅读词汇
你在阅读本文的过程中,将下列单词添加到了你的
词库
sector['sektər]n.扇形,扇区,部门,区域vt.分区motivated['moʊtɪveɪtɪd]adj.有积极性的dispel[dɪ'spel
123逍遥游
·
2020-07-14 06:26
elasticsearch 安装ik分词器及自定义分
词库
的
一.es安装ik分词器(6.0.0)1.场景描述:Elasticsearch中,内置了很多分词器(analyzers),例如standard(标准分词器)、english(英文分词)和chinese(中文分词)。其中standard就是无脑的一个一个词(汉字)切分,所以适用范围广,但是精准度低;english对英文更加智能,可以识别单数负数,大小写,过滤stopwords(例如“the”这个词)等
Barbarousgrowth_yp
·
2020-07-14 04:28
ik
elasticsearch
【ES从入门到实战】二十三、全文检索-ElasticSearch-分词-自定义扩展
词库
接第22节3)、自定义
词库
ik分词器默认的分词并不能满足我们的需求,对于一些新的网络用语,ik分词器就会无法准确的进行分词识别,比如:POST_analyze{"analyzer":"ik_max_word
runewbie
·
2020-07-14 02:54
Elasticsearch
高性能的敏感词过滤算法 可以忽略大小写、全半角、简繁体、特殊符号干扰 (一)
全半角、简繁体、特殊符号干扰(一)————————————–**需求主要有三点:1、高性能和可靠性,因为基于百万级PV全站的敏感词实时过滤,这个无疑是很致命的,可以接受的程度是每个页面100k字节关键
词库
安智
·
2020-07-13 22:47
敏感词过滤
复盘日志10.26
【困难】看到很多熟悉的单词又双叒叕想不起来啥意思【感受和收获】通过复习高考单词,现在
词库
正在回温(•̀∀•́)学到一些连读小技
土管二14郭董昱
·
2020-07-13 10:46
【转】libscws(简体中文分
词库
)
转自:http://blog.csdn.net/chenwei825825/article/details/20406183其它地址:http://www.predream.org/show-119-187-1.html数据类型:1.scws_tscws操作句柄(指针),大多数API的第一参数类型,通过scws_new()返回,不要尝试拷贝structscws_st数据,拷贝结果不保证可以正确工作
畅游竹海
·
2020-07-13 09:13
C/C++
用Wordcloud生成指定形状的词云图
首先贴出一张词云图(以哈利波特小说为例):在生成词云图之前,首先要做一些准备工作安装结巴分
词库
pipinstalljiebaPython中的分词模块有很多,他们的功能也都是大同小异,我们安装的结巴分词是当前使用的最多的类型
wulishinian
·
2020-07-12 16:19
天行数据API智能机器人接口
机器人对话接口请求方法HTTP/HTTPSPOST接口地址http://api.tianapi.com/txapi/robot/使用帮助机器人支持自定义身份属性设置,自定义私有
词库
和无应答时随机回复。
workxin
·
2020-07-12 15:16
天行数据
python日记Day08——文本词频统计(中英文)
python日记——文本词频统计(中英文)一、jieba库的基本介绍中文文本词频统计需要用到第三方库:jieba;jieba库是优秀的中文分词第三方库,需要额外安装;jieba库分词依靠中文
词库
,确定汉字之间的关联概率
石石石大帅
·
2020-07-12 13:10
Python笔记
Lucene精致篇一一词法分析器(Analyzer)
对于中文,需要采用字典分词,也叫
词库
分词;把中文件的词全部放置到一个
词库
中,按某种算法来维护
词库
内容;如果匹配到就切分出来成为词语。通常
词库
分词被认为是最理想的中文分词算法。
-冷无情
·
2020-07-12 13:54
紫光华宇拼音输入法使用技巧续——终极紫光
词库
合集
那就是用户自己导入更大、更全的
词库
。其实输入法的“在线同步”功能也可以看作是一种
词库
的变形。只不过,紫光的
词库
是在自己机子上,只能用户自己一个人
weixin_34343308
·
2020-07-12 09:11
HanLP用户自定义词典源码分析
.官方文档及参考链接关于词典问题Issue,首先参考:FAQ自定义词典其实是基于规则的分词,它的用法参考这个issue如果有些数量词、字母词需要分词,可参考:P2P和C2C这种词没有分出来,希望加到主
词库
关于词性标注
weixin_34306676
·
2020-07-12 09:10
编程词汇
很实用的编程英语
词库
,共收录一千五百余条词汇。
weixin_34279246
·
2020-07-12 09:14
hanlp 加载远程
词库
示例
说明·目前的实现方式是以远程
词库
的内容重新构建CustomDictionary.trie,demo主要是为了实现同步远程
词库
,对性能暂不作考虑,对性能要求要以CustomDictionary.dat为基础实现按
weixin_34221276
·
2020-07-12 09:33
新手该如何发掘关键词?
关键词的发掘手动发掘关键词使用下拉框、相关搜索挖掘2.分析前三页网站关键词3.需求类的关键词也可以到淘宝、京东等使用工具金花、
词库
、爱站、战神、追词等使用脑袋以用户的角度,发挥头脑风暴关键词的删选关键词整理剔除没用或者不合理的关键词对关键词进行归类品牌
最i伟联
·
2020-07-12 08:15
Java中文分词组件 - word分词
能通过自定义配置文件来改变组件行为,能自定义用户
词库
、自动检测
词库
变化、支持大规模分布式环境,能灵活指定
weixin_33878457
·
2020-07-12 08:05
Python之利用jieba库做词频统计且制作词云图
一.环境以及注意事项1.windows10家庭版python3.7.12.需要使用到的库wordcloud(词云),jieba(中文分
词库
),安装过程不展示3.注意事项:由于wordcloud默认是英文不支持中文
yuxiaoyu.
·
2020-07-12 07:46
ElasticSearch入门二(安装IK分词器)
文章目录分词器安装IKAnalysis测试ik配置文件说明自定义
词库
热更新使用分词器在我们match查询的时候,ElasticSearch会默认给我们创建通过分词器创建倒排索引,ElasticSearch
weihubeats
·
2020-07-11 20:43
ElasticSearch
Kibana操作Elasticsearch-IK分词器自定义
词库
1.准备一台nginx,这个是用来存放分词文件的,然后在nginx中创建fenci.txt文件2.访问测试fenci.txt乱码不用管3.配置ik分词器的远程
词库
地址进入ik的plugins宿主机目录/
程序员劝退师-TAO
·
2020-07-11 14:24
#
ElasticSearch
寒假写作班第四天
一,因为句子加长因为有形容
词库
,用起来大家很顺利;二,用lcan、Ihave和lam写故事并配插图占用了时间,结果很惊艳!
明期特RB当家花旦
·
2020-07-11 13:10
小bug记
jieba分词jieba分词,很好的中文分
词库
。前一段时间我用它来检测网页的敏感词。遇到几个问题,记一下。辣妈比美我的敏感
词库
里面,‘妈比’是个敏感词。
杨小邪yxr
·
2020-07-11 12:38
Lucene7 使用Analyzer 过滤中文停用字符
如何去掉这些词源呢,我是使用HanLP作为中文分
词库
的,但当我使用HanLP的CustomDictionary.remove(“的”)和StopWordDictionary.add(“的”)的时
JerryLux
·
2020-07-11 11:35
Lucene
随笔-机器如何学习我们的知识?
1)类别
词库
。特定实体词、功能词、非功能词。2)组合
词库
。组合
词库
包括搭配
词库
,共现
词库
。a)搭配
词库
:i.位置共现:窗口共现、互信息、卡方ii.句法共现:成份共现(VP/NP)、依存
liuhuanyong_iscas
·
2020-07-11 10:29
自然语言处理
语言资源
知识图谱
知识学习
知识图谱
语言资源
语言习得
区块链钱包助记词生成,编解码,认证
助记词是分层钱包中重要的概念之一,比特币BIP39是一套助记
词库
,比特币BIP39的JavaScript实现,用于生成确定性密钥的助记符代码。
jiang_xinxing
·
2020-07-11 09:55
node
用wordcloud和jieba生成中文词云
因为中文通常包含着一整句话,尽管在WordCloud里虽然也有process_text()方法用于把很长的文字做分隔,但这个方法本身是根据英文文本分词设计的,所以对于中文字的展示必须要配合更适合做中文分词处理的jieba分
词库
来操作效果更佳
itanders
·
2020-07-11 08:32
Python
小规模数据量下的关系抽取和实体抽取
我例行使用平台的一系列算法,即使我把
词库
换成了我们自己手工标的
词库
,但是抽到的结果仍然是真的不好~不好~不好(算法流程因为有一定的隐私性不能透露,大概来讲就是抽取只专注词义而不看语义)。
gaozhanfire
·
2020-07-11 06:49
知识图谱
深度学习
机器学习
人工智能
自然语言处理
神经网络
数据挖掘
深度学习
网易有道词典APP产品分析
但是,电子词典体积同样不小,还需要随时携带,最重要的一点是,单
词库
不全,不能及时补充。随着移动互联网的兴起,一批词典app应运而生。其中,最为广泛应用的,当属网易有道词典。人们对于移动互联网的依赖,
刘6666666666666
·
2020-07-11 01:19
完整实用篇:Java分布式中文分词组件-word分词器
详细信息可以点我看看没有废话直接上代码,代码通俗易懂,如果实在还是有问题可以留言讨论;1.引入pom信息org.apdplatword1.32.代码部分publicstaticvoidtest1(){//根据
词库
进行分词
小栋哟
·
2020-07-11 00:04
Java
[转载]正则表达式太慢?这里有一个提速100倍的方案(附代码)
词库
索引、关键词替换……正则表达式的强大功能使其成为了文本处理的必备工具。然而,在处理大文本的情境下,正则表达式的低效率却常常让人抓
百万威力角击_旧
·
2020-07-10 23:54
基于 DHT 网络的磁力链接和BT种子的搜索引擎架构
用PHP写了一个简陋版的基于逆向最大匹配算法的小类,
词库
呢,哈哈,直接使用
SleepInDelphi
·
2020-07-10 23:32
DHT
如何构建你的单
词库
?这样做准没错!
【摘要】2018考研已经提上日程,小伙伴们需要更加详细的了解考研英语中需要复习的侧重点以及考试中涉及的题型,帮帮为大家分享如何2018考研英语复习中构建你的单
词库
。
考研资料包
·
2020-07-10 21:32
无论如何,写下去吧
不断地寻找素材,不断地搜索自己脑海里小小的
词库
。又要不停地读书,不停地积累词汇和素材。白天工作很忙,下班又想坚持锻炼一会儿。偶尔文思泉涌,可以写到一两点钟,然后接下来一周都不精神。本以为结束
苏浅夏夏
·
2020-07-10 19:05
Python快速读取超大文件
importtimeprint("开始处理...")start=time.time()file=r'e:\Python\mypy\搜狗
词库
\sogou_jianhua_new.txt'withopen(
夜空下的凝视
·
2020-07-10 17:48
Python
文本自动分类
(可选)根据2步结果,调整参数/特征等示例:数据:搜狗文本分类语料库精简版分类器:朴素贝叶斯编程语言:Python+nltk自然语言处理库+jieba分
词库
[python]viewplaincopy__
笔尖的痕
·
2020-07-10 12:26
机器
Python开发
BOMpython之decode、encode及codecs模块python使用jieba实现中文文档分词和去停用词VSCode中python代码自动格式化方法解决jieba分词load_userdict加载自定义
词库
太慢的问题
weixin_30908103
·
2020-07-10 07:29
python安装jieba问题
jieba是比较成熟的中文
词库
,python要想做文本挖掘这一块,导入jieba模块就是其中一个选择。但是安装jieba时却遇到一系列问题。
在做算法的巨巨
·
2020-07-10 00:47
ElasticSearch1.7之ik(中文)分词器的自定义分词扩展方式
随着数据量的越来越大,有一些定义的关键词已经不再是常用词汇,超出了ES自带的ik分词
词库
范围,比如:“奥利给”等别称和新闻话题词;这就出现了一些现象,如搜索“奥利给”,因为ik
词库
没有此词,故将词分为若干个字
_陈哈哈
·
2020-07-09 23:25
elasticSearch
solr+jcseg使用complex模式实现模糊搜索效果
模式实现模糊搜索效果为了解决什么问题解决方案比较折中的方案为了解决什么问题假设字段name包含行政区名字,比如河北省,河北,使用complex模式:name:河北,此时搜索不到包含河北省的结果name:河北省,此时搜索不到只包含河北的结果虽然这两个词都在
词库
中
薛凌康
·
2020-07-09 23:03
jcseg
jcseg分词器
关于Solr/ES,我们不得不知道的十件事
如何玩转Solr/ES,能够自定义拓展任意的分词类型,如
词库
分词,语义分词,拼音分词等2、Solr
qq_33160722
·
2020-07-09 22:20
elasticsearch
hadoop
solr
spark
大数据
编程英语单词
很实用的编程英语
词库
,共收录一千五百余条词汇。
qq_22957637
·
2020-07-09 22:16
python
英语word
Linux之scim-python输入法安装
其
词库
基于搜狗拼音输入法。
longxibendi
·
2020-07-09 19:35
Linux
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他