E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
词库
获取训练数据的方式
下载搜狗
词库
https://pinyin.sogou.com/dict/在官网搜索相关的
词库
下载,比如地名等,然后使用脚本将此条转换成txt保存,来源#-*-coding:utf-8-*-importosimportsysimportstruct
callinglove
·
2020-06-22 20:26
Machine
Learning
c#中文分词学习材料
ICTCLASSharpICTCLAS分词系统简介(9)
词库
扩充SharpICTCLAS分词系统简介(8)其它SharpICTCLAS分词系统简介(7)OptimumSegmentSharpICTCLAS
一步一个脚印的屌丝
·
2020-06-22 19:47
IKAnalyzer配置扩展
词库
经验总结
IKAnalyzer对于中文分词效果较好,但是在实际应用过程中经常会遇到分词效果不理想的情况,比如中文中夹杂的英文缩写,英文与数字混合(如软件版本号)等,这时就需要配置扩展
词库
。
一舍
·
2020-06-22 18:34
NLP
编写简单的中文分词程序
几个月之前,在网上找到了一个中文
词库
素材(几百K),当时便想写一个分词程序了.我对汉语分词没有什么研究,也就凭自己臆想而写.若有相关方面专家,还请多给意见.一、
词库
词库
大概有5万多词语(google能搜到
aobannie0463
·
2020-06-22 14:59
Hanlp自然语言处理工具的使用演练
本篇将用户输入的语句根据
词库
进行分词、关键词提取、摘要提取、
词库
维护。工具类名称:DKNLPBase1、标准分词方法签名:ListStandardTokeni
adnb34g
·
2020-06-22 12:48
自然语言处理
PHP 实现敏感词过滤(附敏感
词库
)
敏感词、文字过滤是一个网站必不可少的功能,如何设计一个好的、高效的过滤算法是非常有必要的。在实现敏感词过滤的算法中,我们必须要减少运算,而DFA在DFA算法中几乎没有什么计算,有的只是状态的转换。所以想更高效的进行敏感词的过滤,需要使用DFA算法。但这里展示的是使用PHP实现简单的敏感词过滤,调用StringFiter类时,传入$sorStr,就可以将$sorStr中敏感的词汇转换为**。代码如下
哈哈,名字可以改
·
2020-06-22 11:58
聊一聊几个读书类APP
读英文书时,有内置的
词库
可以随时查词,很方便(最早用的掌阅iRead
莫妮卡的书房
·
2020-06-22 11:49
C小项目——电子词典
【项目需求描述】一、单词查询给定文本文件“dict.txt”,该文件用于存储
词库
。
a1314521531
·
2020-06-22 10:58
C语言
C小项目
C语言精华
Java实现简体中文转繁体中文的工具(包括编码转换和语义转换)
简体中文转繁体中文的工具,包括:1、编码转换(GBK->big5)2、语义转换(根据
词库
,需要
词库
的请EMail联系我)packagei18n.converter;importjava.io.BufferedReader
PigHeadSam猪头三
·
2020-06-22 03:50
Java
Utils
Encoding
自媒体学习心得分享之四
其实我清楚地知道互联网背后的程序审稿,它设置有关键
词库
,设有若干的规则,但具体是怎样却不得而知。
城市真人
·
2020-06-22 03:02
Fcitx使用搜狗
词库
与皮肤
在\(\texttt{Linux}\)环境下,\(\texttt{Fcitx}\)确实是最好用的开源输入法之一。然而\(\texttt{Windows}\)下的巨头输入法——搜狗,对\(\texttt{Linux}\)的支持却并不算到位,迄今为止,大多数\(\texttt{Linux}\)的最新内核都无法使用搜狗,譬如\(\texttt{Ubuntu19.04}\)。所以,\(\texttt{Li
洛水·锦依卫
·
2020-06-22 00:14
Python_词云
Github源码内容略有改动Python_词频统计与词云本课概要词云的应用场景词云四行代码生成一个词云美化词云从外部文件读入文本3号词云:乡村振兴战略中央文件(句子云)中文分词中文分词-小试牛刀中文分
词库
JCMLSY
·
2020-06-21 22:24
Python学习笔记
将有道单词本导出到墨墨自建
词库
记忆,只背那些私人订制的单词
其中有一个痛点是,你用托福,GRE等
词库
记忆会遇到很多你已经会的单词或者由于你平时很难遇到因此背了就忘的单词。这篇文章专门针对这个问题分享一个我用了很久的
词库
私人订制方案,同时还可以治疗懒癌。
星星有情绪
·
2020-06-21 20:34
新广告法违规词、敏感词在线检测工具
小龙经过多方努力,终于开发出了新广告法违规词、敏感词在线检测工具,这可能是市面上最全的检测工具了,截止目前已收录441个相关词汇,关键
词库
每日在云端动态更新,所有验证均采用云端验证,最大程序上避免漏词。
天府云创
·
2020-06-21 20:29
没想到你是这样的妇科医生
关于我的复习方法论,请戳:我是这样战胜遗忘周期的关于单
词库
的制作:请戳:我是这样制作单
词库
的好吧,我承认我标题党了。
苏才子
·
2020-06-21 18:13
【中文分词系列】 8. 更好的新词发现算法
如果依次阅读该系列文章的读者,就会发现这个系列共提供了两种从0到1的无监督分词方案,第一种就是《【中文分词系列】2.基于切分的新词发现》,利用相邻字凝固度(互信息)来做构建
词库
(有了
词库
,就可以用词典法分词
算法学习者
·
2020-06-21 16:44
NLP
word2vec词向量训练及gensim的使用
一、什么是词向量词向量最初是用one-hotrepresention表征的,也就是向量中每一个元素都关联着
词库
中的一个单词,指定词的向量表示为:其在向量中对应的元素设置为1,其他的元素设置为0。
木槿花开lalala
·
2020-06-21 15:00
机器学习
用Python绘制词云图
一、分词1.1制作停止
词库
分词之前先准备一下停止词,因为中文中有很多的语气词啊,副词啊等,对于我们展现词频热度是无意义的干扰词。于是,我们就想个法
喜碧夫人听众
·
2020-06-21 15:26
python
词语提取小工具开放啦
华为云的云搜索服务,可以自定义自己的
词库
来做分词、停词。修改
词库
还可以热更新,不用重启即可生效。大家都知道
词库
中的词从哪里来,哪些才是有用的词,这是让人头疼的事情。
To-Big_Fish
·
2020-06-21 15:28
算法
Elasticsearch如何安装中文分词插件ik
elasticsearch-analysis-ik是一款中文的分词插件,支持自定义
词库
。
weixin_30949361
·
2020-06-21 10:33
适合初学英语入门的英语APP
大部分背单词app只能选择背六级、四级或是考研单词这样,而墨墨的单
词库
基本包
一网小鱼
·
2020-06-21 08:00
新词发现
这似乎陷入了一个怪圈:分词的准确性本身就依赖于
词库
的完整性,如果
词库
中根本没有新词,我们又怎么能信任分词结果呢?
Tao-Tao-Tao
·
2020-06-21 07:11
nlp
机器学习
C语言探索之旅 | 第二部分第十课: 实战"悬挂小人"游戏答案
《C语言探索之旅》全系列内容简介前言解方(1.游戏的代码)解方(2.
词库
的代码)第二部分第十一课预告1.前言经过上一课C语言探索之旅|第二部分第九课:实战"悬挂小人"游戏之后,相信大家都或多或少都写了自己的
程序员联盟
·
2020-06-21 03:22
c
后端
编程
编程语言
程序员
如何避免成为一个油腻的中年猥琐男
曾几何时,连“曾几何时”这个词都变得如此矫情,如果不是在特殊的抒情场合,再也不好意思从
词库
里调出来使用,连排比这种修辞都变得如此
般若Neo
·
2020-06-21 01:49
#
杂记
Python-jieba库的使用
是优秀的中文分词第三方库中文文本需要通过分词获得单个的词语jieba是优秀的中文分词第三方库,需要额外安装jieba库提供三种分词模式,最简单只需要掌握一个函数jiaba库安装:(cmd命令行)pipinstalljiebajiaba分词原理:依靠中文
词库
利用一个中文
词库
cheng6023
·
2020-06-21 00:24
Python
jieba
中文分词
lcuts
1008-1014.周成长总结
【收获】1、换了个五笔输入法,去掉之前那个糟糕繁冗的
词库
,同时问题也来了——有些较生僻的词需要自己建立。与“盈亏同源”是一样的故事,需要更敏感则信号多反复多,需要更稳定则要忍受滞后和延迟。
海上大王
·
2020-06-20 21:26
Echarts(1):Python爬取微博热搜并用Echarts词云展示
爬取下来后保存为csv格式的数据,在使用Pythonpandas库和结巴分
词库
进行处理,得到分词结果,再对分词结果进行词频计算,得到echarts词云的原数据。2.Python爬取网
偉ing
·
2020-06-18 15:04
echarts
js
python
json
网易有道词典笔 2 专业版体验分享
今天就跟大家分享一款可以让你专心学习的词典笔——网易有道词典笔2专业版,拥有240W
词库
,中英日韩四种语言,轻轻一扫,就可以完成翻译任务,非常便捷。不仅能提高学习效率,离线使用还可以避免在学习过程中被
ZEALER
·
2020-06-17 00:00
基于词典的实体识别
在不需发现未知词的情况下基于词典的实体识别已足够基于字典的ner也有两种做法:字符串多模匹配和切词(词典加入自定义
词库
)字符串多模匹配多模匹配有两种基本算法:trie树和记录长度集合的最长匹配trie树匹配效率更高
今夜无风
·
2020-06-11 14:00
Elasticsearch系列---使用中文分词器
概要本篇主要介绍中文分词器ik-analyzer的安装使用、自定义
词库
以及热更新方
踏狱稀137
·
2020-06-11 13:37
大数据
Elasticsearch系列---使用中文分词器
概要本篇主要介绍中文分词器ik-analyzer的安装使用、自定义
词库
以及热更新方
whatisJ2EE
·
2020-06-11 08:32
elasticsearch
中文分词器
Elasticsearch系列
英语资源及其APP推荐
使用说明:从单
词库
中选一本单词本。里面几乎涵盖所有单词
zranguai
·
2020-06-11 00:00
iOS代码混淆实现
方案1、准备四六级单
词库
(如果使用随机字符会被机审查出来);2、使用clang过滤出类名和方法名;3、从四六级单
词库
随机组成,映射对应的类名和方法名;4、通过映射进行混淆操作。
jackyshan
·
2020-06-10 10:53
【ES从入门到实战】二十三、全文检索-ElasticSearch-分词-自定义扩展
词库
接第22节3)、自定义
词库
ik分词器默认的分词并不能满足我们的需求,对于一些新的网络用语,ik分词器就会无法准确的进行分词识别,比如:POST_analyze{"analyzer":"ik_max_word
runewbie
·
2020-05-31 22:20
jieba库的使用
jieba是一个中文分
词库
,可以根据所给的中文句子,提取出可能的词组jieba库分词依靠
词库
。利用中文
词库
,确定汉字之间的关联概率。概率大的组成词组,形成分词效果。
xjfyt
·
2020-05-31 17:00
新媒体人不可不知的专业词汇(基础篇)
所以我们整理了一份专业名
词库
,来考考大家,看看你认识多少,今天先列出33个基础名词,之后还会有进阶词汇和高级词汇。
美丽俏佳米
·
2020-05-28 15:46
ElasticSearch7.4.2安装、使用以及与SpringBoot的整合
索引批量操作进阶检索SearchAPIQueryDSLmatchboolfilterterm字段.keyword以及match区分AggregationsMapping创建映射关系查看映射信息修改映射信息分词自定义
词库
安装
jklixin
·
2020-05-27 16:00
总会有个人成为你的远方
我相信所谓的共鸣,其实就是在别人的词句里看到了自己的故事,看到了自己那贫缺的
词库
里急需的辞藻。我认识一个人,是在十二月的云南。
耳畔听潮
·
2020-05-19 11:36
C#实现前向最大匹、字典树(分词、检索)的示例代码
场景:现在有一个错
词库
,维护的是错词和正确词对应关系。比如:错词“我门”对应的正确词“我们”。
Spring2Sun
·
2020-05-15 15:45
C#实现前向最大匹、字典树(分词、检索)
场景:现在有一个错
词库
,维护的是错词和正确词对应关系。比如:错词“我门”对应的正确词“我们”。
Spring2Sun
·
2020-05-15 10:00
美国老师用单词银行帮孩子建立
词库
,记单词真不用一个个去背!
看点在学习语言过程中,最头痛的就是单词记忆了。今天外滩君推荐的这篇文章中,美国老师用一种“单词银行”的方式,用一组相关话题的词汇,通过带领孩子头脑风暴,尽可能的想出相关词汇。这个方法可以帮助孩子独立写单词,对于那些记忆有困难,从而阻碍写作流畅度的孩子而言,非常有帮助!本文转载自公众号:智力圈美式学堂(ID:Brainhoop)文丨小杨老师编丨Jane最近是美国的教师节,因为疫情的特殊关系,很多孩子
外滩教育
·
2020-05-14 00:00
es使用与原理5 -- 中文分词及热更新
词库
,聚合分析等等
中国人很喜欢吃油条的中英文分词器两种分法standard:中国人很喜欢吃油条ik:中国人很喜欢吃油条1、在elasticsearch中安装ik中文分词器(1)gitclonehttps://github.com/medcl/elasticsearch-analysis-ik(2)gitcheckouttags/v5.2.0(3)mvnpackage(4)将target/releases/elast
Teemo_fca4
·
2020-05-08 10:31
基于python实现检索标记敏感词并输出
#检索敏感词并描红输出#输入word=input("请输入或拷贝含有敏感词的宣传文字:")#敏感
词库
sensitive=['第一','国家级','最高级','最佳','独一无二','一流','仅此一次'
夏日的向日葵
·
2020-05-07 08:50
数据库实现一个轻量的背单词APP
本文目录总体功能目标:前期功能:后期功能:大致思路:当前效果图:开始编码:
词库
:选择题:用到的基类、自定义Button、工具类在使用背单词APP的过程中,我发现我就没专心背单词,而是想着:咦,这功能可以
Android_YU
·
2020-04-28 21:02
Android
【NLP】之 结巴分词
1.结巴分词简介结巴分词是当前效果较好的一种中文分词器,支持中文简体、中文繁体分词,同时还支持自定义
词库
。结巴分词支持三种分词模式:精确模式、全模式和搜索引擎模式。
马小酥
·
2020-04-26 22:43
自然语言处理
NLP
java B2B2C多用户商城系统-搜索分词架构分享
需求分析:在javashop电商系统中,商品数据是存在elasticsearch中,使用ik分词器分词,ik分词器的
词库
内置了2万多个。
java电商系统源码分享
·
2020-04-24 16:00
分享SEO网站建设中需要的关键词工具
下面就来说一下——SEO关键词工具1、
词库
网他们网站提供六大类与关键词有关的查询,分别为最新关键
词库
、热门关键
词库
、热门关键词预测、竞价关键
词库
、网站关键
词库
、行业关键
词库
,总之还是比较全的。
hewu晶
·
2020-04-14 14:38
开刀营 day22
整个个人中心分为6个模块,分别是首页,输入统计,勋章馆,我的皮肤,我的表情,我的
词库
。我认为其中比较有趣是前面三个模块。
神域熊猫
·
2020-04-14 09:21
2018-06-29
首先选品:采集淘宝联盟高佣金,拥有智能热词系统每天
词库
都会自然采集阿里平台比较畅销商品关键词供咱们使用。关键的引流:技术功
店淘君
·
2020-04-14 06:19
总想的太多,做的太少
爱好文学,书籍……却从未好好认真的阅读完一本书,每每想记录生活中的点点滴滴却发现,
词库
少的无法完美表达出自身真实感受。
静夏心
·
2020-04-13 21:26
上一页
22
23
24
25
26
27
28
29
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他