E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
词库
用Wordcloud生成指定形状的词云图
首先贴出一张词云图(以哈利波特小说为例):在生成词云图之前,首先要做一些准备工作安装结巴分
词库
pipinstalljiebaPython中的分词模块有很多,他们的功能也都是大同小异,我们安装的结巴分词是当前使用的最多的类型
wulishinian
·
2020-07-12 16:19
天行数据API智能机器人接口
机器人对话接口请求方法HTTP/HTTPSPOST接口地址http://api.tianapi.com/txapi/robot/使用帮助机器人支持自定义身份属性设置,自定义私有
词库
和无应答时随机回复。
workxin
·
2020-07-12 15:16
天行数据
python日记Day08——文本词频统计(中英文)
python日记——文本词频统计(中英文)一、jieba库的基本介绍中文文本词频统计需要用到第三方库:jieba;jieba库是优秀的中文分词第三方库,需要额外安装;jieba库分词依靠中文
词库
,确定汉字之间的关联概率
石石石大帅
·
2020-07-12 13:10
Python笔记
Lucene精致篇一一词法分析器(Analyzer)
对于中文,需要采用字典分词,也叫
词库
分词;把中文件的词全部放置到一个
词库
中,按某种算法来维护
词库
内容;如果匹配到就切分出来成为词语。通常
词库
分词被认为是最理想的中文分词算法。
-冷无情
·
2020-07-12 13:54
紫光华宇拼音输入法使用技巧续——终极紫光
词库
合集
那就是用户自己导入更大、更全的
词库
。其实输入法的“在线同步”功能也可以看作是一种
词库
的变形。只不过,紫光的
词库
是在自己机子上,只能用户自己一个人
weixin_34343308
·
2020-07-12 09:11
HanLP用户自定义词典源码分析
.官方文档及参考链接关于词典问题Issue,首先参考:FAQ自定义词典其实是基于规则的分词,它的用法参考这个issue如果有些数量词、字母词需要分词,可参考:P2P和C2C这种词没有分出来,希望加到主
词库
关于词性标注
weixin_34306676
·
2020-07-12 09:10
编程词汇
很实用的编程英语
词库
,共收录一千五百余条词汇。
weixin_34279246
·
2020-07-12 09:14
hanlp 加载远程
词库
示例
说明·目前的实现方式是以远程
词库
的内容重新构建CustomDictionary.trie,demo主要是为了实现同步远程
词库
,对性能暂不作考虑,对性能要求要以CustomDictionary.dat为基础实现按
weixin_34221276
·
2020-07-12 09:33
新手该如何发掘关键词?
关键词的发掘手动发掘关键词使用下拉框、相关搜索挖掘2.分析前三页网站关键词3.需求类的关键词也可以到淘宝、京东等使用工具金花、
词库
、爱站、战神、追词等使用脑袋以用户的角度,发挥头脑风暴关键词的删选关键词整理剔除没用或者不合理的关键词对关键词进行归类品牌
最i伟联
·
2020-07-12 08:15
Java中文分词组件 - word分词
能通过自定义配置文件来改变组件行为,能自定义用户
词库
、自动检测
词库
变化、支持大规模分布式环境,能灵活指定
weixin_33878457
·
2020-07-12 08:05
Python之利用jieba库做词频统计且制作词云图
一.环境以及注意事项1.windows10家庭版python3.7.12.需要使用到的库wordcloud(词云),jieba(中文分
词库
),安装过程不展示3.注意事项:由于wordcloud默认是英文不支持中文
yuxiaoyu.
·
2020-07-12 07:46
ElasticSearch入门二(安装IK分词器)
文章目录分词器安装IKAnalysis测试ik配置文件说明自定义
词库
热更新使用分词器在我们match查询的时候,ElasticSearch会默认给我们创建通过分词器创建倒排索引,ElasticSearch
weihubeats
·
2020-07-11 20:43
ElasticSearch
Kibana操作Elasticsearch-IK分词器自定义
词库
1.准备一台nginx,这个是用来存放分词文件的,然后在nginx中创建fenci.txt文件2.访问测试fenci.txt乱码不用管3.配置ik分词器的远程
词库
地址进入ik的plugins宿主机目录/
程序员劝退师-TAO
·
2020-07-11 14:24
#
ElasticSearch
寒假写作班第四天
一,因为句子加长因为有形容
词库
,用起来大家很顺利;二,用lcan、Ihave和lam写故事并配插图占用了时间,结果很惊艳!
明期特RB当家花旦
·
2020-07-11 13:10
小bug记
jieba分词jieba分词,很好的中文分
词库
。前一段时间我用它来检测网页的敏感词。遇到几个问题,记一下。辣妈比美我的敏感
词库
里面,‘妈比’是个敏感词。
杨小邪yxr
·
2020-07-11 12:38
Lucene7 使用Analyzer 过滤中文停用字符
如何去掉这些词源呢,我是使用HanLP作为中文分
词库
的,但当我使用HanLP的CustomDictionary.remove(“的”)和StopWordDictionary.add(“的”)的时
JerryLux
·
2020-07-11 11:35
Lucene
随笔-机器如何学习我们的知识?
1)类别
词库
。特定实体词、功能词、非功能词。2)组合
词库
。组合
词库
包括搭配
词库
,共现
词库
。a)搭配
词库
:i.位置共现:窗口共现、互信息、卡方ii.句法共现:成份共现(VP/NP)、依存
liuhuanyong_iscas
·
2020-07-11 10:29
自然语言处理
语言资源
知识图谱
知识学习
知识图谱
语言资源
语言习得
区块链钱包助记词生成,编解码,认证
助记词是分层钱包中重要的概念之一,比特币BIP39是一套助记
词库
,比特币BIP39的JavaScript实现,用于生成确定性密钥的助记符代码。
jiang_xinxing
·
2020-07-11 09:55
node
用wordcloud和jieba生成中文词云
因为中文通常包含着一整句话,尽管在WordCloud里虽然也有process_text()方法用于把很长的文字做分隔,但这个方法本身是根据英文文本分词设计的,所以对于中文字的展示必须要配合更适合做中文分词处理的jieba分
词库
来操作效果更佳
itanders
·
2020-07-11 08:32
Python
小规模数据量下的关系抽取和实体抽取
我例行使用平台的一系列算法,即使我把
词库
换成了我们自己手工标的
词库
,但是抽到的结果仍然是真的不好~不好~不好(算法流程因为有一定的隐私性不能透露,大概来讲就是抽取只专注词义而不看语义)。
gaozhanfire
·
2020-07-11 06:49
知识图谱
深度学习
机器学习
人工智能
自然语言处理
神经网络
数据挖掘
深度学习
网易有道词典APP产品分析
但是,电子词典体积同样不小,还需要随时携带,最重要的一点是,单
词库
不全,不能及时补充。随着移动互联网的兴起,一批词典app应运而生。其中,最为广泛应用的,当属网易有道词典。人们对于移动互联网的依赖,
刘6666666666666
·
2020-07-11 01:19
完整实用篇:Java分布式中文分词组件-word分词器
详细信息可以点我看看没有废话直接上代码,代码通俗易懂,如果实在还是有问题可以留言讨论;1.引入pom信息org.apdplatword1.32.代码部分publicstaticvoidtest1(){//根据
词库
进行分词
小栋哟
·
2020-07-11 00:04
Java
[转载]正则表达式太慢?这里有一个提速100倍的方案(附代码)
词库
索引、关键词替换……正则表达式的强大功能使其成为了文本处理的必备工具。然而,在处理大文本的情境下,正则表达式的低效率却常常让人抓
百万威力角击_旧
·
2020-07-10 23:54
基于 DHT 网络的磁力链接和BT种子的搜索引擎架构
用PHP写了一个简陋版的基于逆向最大匹配算法的小类,
词库
呢,哈哈,直接使用
SleepInDelphi
·
2020-07-10 23:32
DHT
如何构建你的单
词库
?这样做准没错!
【摘要】2018考研已经提上日程,小伙伴们需要更加详细的了解考研英语中需要复习的侧重点以及考试中涉及的题型,帮帮为大家分享如何2018考研英语复习中构建你的单
词库
。
考研资料包
·
2020-07-10 21:32
无论如何,写下去吧
不断地寻找素材,不断地搜索自己脑海里小小的
词库
。又要不停地读书,不停地积累词汇和素材。白天工作很忙,下班又想坚持锻炼一会儿。偶尔文思泉涌,可以写到一两点钟,然后接下来一周都不精神。本以为结束
苏浅夏夏
·
2020-07-10 19:05
Python快速读取超大文件
importtimeprint("开始处理...")start=time.time()file=r'e:\Python\mypy\搜狗
词库
\sogou_jianhua_new.txt'withopen(
夜空下的凝视
·
2020-07-10 17:48
Python
文本自动分类
(可选)根据2步结果,调整参数/特征等示例:数据:搜狗文本分类语料库精简版分类器:朴素贝叶斯编程语言:Python+nltk自然语言处理库+jieba分
词库
[python]viewplaincopy__
笔尖的痕
·
2020-07-10 12:26
机器
Python开发
BOMpython之decode、encode及codecs模块python使用jieba实现中文文档分词和去停用词VSCode中python代码自动格式化方法解决jieba分词load_userdict加载自定义
词库
太慢的问题
weixin_30908103
·
2020-07-10 07:29
python安装jieba问题
jieba是比较成熟的中文
词库
,python要想做文本挖掘这一块,导入jieba模块就是其中一个选择。但是安装jieba时却遇到一系列问题。
在做算法的巨巨
·
2020-07-10 00:47
ElasticSearch1.7之ik(中文)分词器的自定义分词扩展方式
随着数据量的越来越大,有一些定义的关键词已经不再是常用词汇,超出了ES自带的ik分词
词库
范围,比如:“奥利给”等别称和新闻话题词;这就出现了一些现象,如搜索“奥利给”,因为ik
词库
没有此词,故将词分为若干个字
_陈哈哈
·
2020-07-09 23:25
elasticSearch
solr+jcseg使用complex模式实现模糊搜索效果
模式实现模糊搜索效果为了解决什么问题解决方案比较折中的方案为了解决什么问题假设字段name包含行政区名字,比如河北省,河北,使用complex模式:name:河北,此时搜索不到包含河北省的结果name:河北省,此时搜索不到只包含河北的结果虽然这两个词都在
词库
中
薛凌康
·
2020-07-09 23:03
jcseg
jcseg分词器
关于Solr/ES,我们不得不知道的十件事
如何玩转Solr/ES,能够自定义拓展任意的分词类型,如
词库
分词,语义分词,拼音分词等2、Solr
qq_33160722
·
2020-07-09 22:20
elasticsearch
hadoop
solr
spark
大数据
编程英语单词
很实用的编程英语
词库
,共收录一千五百余条词汇。
qq_22957637
·
2020-07-09 22:16
python
英语word
Linux之scim-python输入法安装
其
词库
基于搜狗拼音输入法。
longxibendi
·
2020-07-09 19:35
Linux
五月份任务
1、拍贝叶斯医疗产品宣传片,主要用于融资2、舌苔识别稳定性,主要用于科技API对接3、机器人上开发舌苔问诊app,舌苔识别app,主要用于在太库门口公共场合展示贝叶斯产品4、语音识别服务化、完善
词库
、提高准确率和响应速度
贝叶斯科技
·
2020-07-09 17:02
用c语言做一个词典
这是一个简单的实现了英文单词查询的词典,把
词库
放在VS的工程目录下(放在别的地方也可以,打开的时候改一下路径就好了)#include#include#include#include//以后更换
词库
直接更改这里即可
暂代
·
2020-07-09 04:04
C/C++语言
项目
钱包助记词从原理到实践
助记词一般由12、15、18、21个单词构成,这些单词都取自一个固定
词库
Ashton
·
2020-07-09 02:25
简单实现敏感词过滤功能
一、构建敏感
词库
读取文件数据,并保存到HashMap中,构建一个DFA模型(字典树)publicclassSensitiveWordInit{publicstaticMapsensitiveWordMap
FirstJinner
·
2020-07-08 23:25
功能实现
基于Aispeech的智能对话APP(五)--实现触发指定意图,用户
词库
功能
基于Aispeech的智能对话APP(五)--实现触发指定意图,更新用户
词库
功能一.触发指定意图1.1更新设备状态1.2更新技能配置1.3更新配置信息1.4更新热词信息二.更新用户
词库
2.1本地添加词条
被逼的阿陈
·
2020-07-08 23:51
安卓
android
接口
shell
docker
《Transistor 晶体管》评测:你的优雅,我们尽收眼底
简介这是一款让词穷的假药君拼命寻找大脑中的
词库
也无法去形容它的美好,让人能够沉淀其中的游戏。机械朋克的风格,典型的平面设计风格,舒适养眼的颜色,梦幻童话与艺术的结合。
闷瓜爱游戏
·
2020-07-08 22:57
墨上花开,归矣。
世事沉浮,不如找寻清静一隅,将红尘关在门外,低吟浅唱几阙语,在翰林
词库
里,浪迹天涯。曾记否,那一支词牌哀怨,晕染悲喜年华。沁园春深,锁不住月影万变;醉花阴婉,剪不断梧桐细雨帘。
爱心驿站
·
2020-07-08 22:09
python数据挖掘-文本挖掘(词频统计)
一,使用pycharm创建项目 我创建的项目下只有两个文件,一个停分词文件,一个脚本代码文件 停分词文件(stopwords.txt):作用:在用jieba分
词库
对文件进行分词处理时,有些无用却频繁出现的分词
augus_q
·
2020-07-08 19:32
python
ATT&CK如何落地到安全产品
image.png科普:ATT&CK是什么ATT&CK的提出是为了解决业界对黑客行为、事件的描述不一致、不直观的问题,换句话说它解决了描述黑客行为(TTP)的语言和
词库
,将描述黑客攻击的语言统一化。
ffx_01
·
2020-07-08 19:26
热烈庆祝小楠外语成为SETRA全国英语词汇测评基地!
图片发自App上传中,请稍候…图片发自AppSETRA全国英语词汇晋级测评是以《少儿英语词汇测评
词库
》为标准,帮助孩子循序渐进提升词汇量的测试平台!
HelenShow
·
2020-07-08 15:48
百宝箱-Rime配置
google拼音试用了一周的时间——启动速度快,纯净,我将搜狗的
词库
导入,输入效率也可以。但是google拼音很
weixin_30722589
·
2020-07-08 14:03
搭建自己的Anki同步服务器
搭建自己的Anki同步服务器Anki自带的AnkiWeb同步服务体验较差,当你的单
词库
较大时,同步起来体验非常的差。因此我在腾讯云上自己搭建了Anki同步服务器。
光帆
·
2020-07-08 12:28
酷我音乐盒2014 v7.6.0.0 官方免费版
功能包含一键即播,海量的歌
词库
支持,图片欣
玻璃娃娃2
·
2020-07-08 11:24
热词抽取与话题发现系列(1):郝晓玲研究
中文分词算法主要分为两种:一是基于语言规则的方法,即计算机可以通过自然语言的语法、词性等内部规则分析出文本正确含义并分词,判断文本串是否成词主要依赖
词库
。主要方法包括:基于统计过滤和
沈子恒
·
2020-07-08 05:24
深度学习与推荐算法
贪心学院—自然语言处理—评估词向量
t-distributedStochasticNeighborEmbedding(t-SNE)对训练得到的词向量降维到二维空间进行观察;sklearn中tsne可视化;t-SNE完整笔记与已有的数据进行相似度对比(前提是你已有一个训练好的
词库
及其词向量
一位不愿透露姓名的群众
·
2020-07-07 22:56
概念
上一页
18
19
20
21
22
23
24
25
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他