E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
词库
每日一词Day 537: urbane | 每周英语课堂预告
↓单词分享卡↓扫码解锁往期单
词库
↑每日打卡温故知新↑订阅全年《经济学人·商论》,即可加入学习社区,解锁「每日一词」栏目的全部功能:包含当日单词的两个《经济学人
经济学人
·
2019-07-10 00:00
苹果iOS 13新增滑行键入功能 开启新键盘模式
滑行输入又称扫屏输入,是近年触摸屏幕/触摸键盘上流行的输入技术,它的特点是:你只需要在要录入单词的几个字母之间滑行,系统
词库
就能把你需要的单词给找出来,无需考虑顺序、排列、冗余甚至无需考虑多输入进去的字母
佚名
·
2019-07-08 10:27
洗脑
在我的
词库
里,则视“洗脑”为褒义。把它等同于认知的学习,成长,除旧迎新,升级迭代。事实上,我们在生活中每天都洗洗涮涮。无论是人,还是物品,或是身体的清洁,亦或大自然的雨水冲刷,清洗可谓是必备事项。
艾妈潘潘
·
2019-07-07 23:23
读取excel写入txt文件
publicstaticvoidmain(String[]args)throwsException{InputStreamin=newFileInputStream("C:/Users/Desktop/参考资料/minganciku/敏感
词库
表统计
丁文浩
·
2019-07-05 14:51
Java
中文文本中的关键字提取算法总结
1.关键词抽取的方法-----主要有两种关键词分配:给定一个已有的关键
词库
,对于新来的文档从该
词库
里面匹配几个词语作为这篇文档的关键词。关键词提取:针对新文档,通过算法分析,提取文档中一些
奔腾的小马达
·
2019-07-03 15:08
NLP
每日一词Day 532: Discrete | 每周英语课堂预告
↓单词分享卡↓扫码解锁往期单
词库
↑每日打卡温故知新↑订阅全年《经济学人·商论》,即可加入学习社区,解锁「每日一词」栏目的全部功能:包含当日单词的两个《经济学人
经济学人
·
2019-07-03 00:00
java实现英文翻译程序
本文实例为大家分享了java实现英文翻译程序的具体代码,供大家参考,具体内容如下1.功能简介将文本文件中的英文转换为对应的中文
词库
如下:源文件:翻译后的文件:输入源文件路径,将翻译后的内容输出到result.txt
bobo1356
·
2019-06-25 15:00
NLP常见单词翻译、自然语言处理入门
词库
Vocabulary,表示所有词的集合。一般而言,经过one-hotencoding之后的向量的长度即为
词库
的大小。
Quant_Learner
·
2019-06-24 17:24
小白学机器学习
NLP
用python制作微信好友个性签名的词云图
制作思路导入微信库ichat,中文分
词库
jieba跳出登陆二维码,扫码登陆获取好友列表构建所有好友个性签名组成的大列表tList对个性签名进行中文分词导入imageio库中的imread函数,并用这个函数读取本地图片
倔强 Jarrod
·
2019-06-22 11:10
python数据分析
NLP之分词jieba、HanLP、中科院nlpir
jieba、哈工大LTP、中科院计算所NLPIR、清华大学THULAC和FoolNLTK、HanLPjieba分词目前是最主流的python中文分词组件,包括精确模式,在jieba分词中需要加载自定义
词库
chenxinvhai89
·
2019-06-21 15:09
NLP
Ansj与hanlp分词工具对比
阅读更多一、Ansj1、利用DicAnalysis可以自定义
词库
:2、但是自定义
词库
存在局限性,导致有些情况无效:比如:“不好用“的正常分词结果:“不好,用”。
adnb34g
·
2019-06-21 13:00
Ansj与hanlp分词工具对比
一、Ansj1、利用DicAnalysis可以自定义
词库
:2、但是自定义
词库
存在局限性,导致有些情况无效:比如:“不好用“的正常分词结果:“不好,用”。
adnb34g
·
2019-06-21 12:07
ansj
hanlp
自然语言处理
网站敏感词过滤的实现(附敏感
词库
)
一、敏感词过滤工具类把敏感词
词库
内容加载到ArrayList集合中,通过双层循环,查找与敏感词列表相匹配的字符串,如果找到以*号替换,最终得到替换
zzzzzx_90
·
2019-06-15 14:05
python第三方库之jieba库使用
前言:今天分享一个优秀的中文分
词库
jieba,学习一个第三方库最好的方式就是去它的官方网站或者github上看看~github网址:点击---->jieba引入:‘“结巴”中文分词:做最好的Python
大隐.
·
2019-06-07 14:26
python语法
数据分析入门
jieba
中文分词
python第三库
自然语言处理
中文处理
idea spell checking(拼写检查)
在idea中写一些没有在
词库
中出现的单词会报弱警告,如下:Spellcheckerinspectionhelpslocatetyposandmisspellinginyourcode,commentsandliterals
ChaseDreamBoy
·
2019-05-31 09:35
IntelliJ
IDEA
IntelliJ
IDEA
Python踩坑指南(第二季)
本期围绕jieba讲一个我遇到的实际问题,在同一个服务里,存在两个不同接口A和B,都用到了jieba分词,区别在于两者需要调用不同的
词库
,巧合中,存在以下情况:
词库
A:"干拌面"
词库
B:"干拌","面"
slade_sal
·
2019-05-28 15:02
Python踩坑指南(第二季)
本期围绕jieba讲一个我遇到的实际问题,在同一个服务里,存在两个不同接口A和B,都用到了jieba分词,区别在于两者需要调用不同的
词库
,巧合中,存在以下情况:
词库
A:"干拌面"
词库
B:"干拌","面"
slade_sal
·
2019-05-28 15:02
中文分词和HMM模型
目录一、中文分词1.1切分方案的标识数据结构1.2Trie树1.3DAG(有向无环图)1.4概率模型N元模型1.5jieba分词中文分词流程jieba登录词
词库
加载jieba的DAG词图jieba的Route
code__online
·
2019-05-25 21:28
机器学习
[Python爬虫]新闻网页爬虫+jieba分词+关键词搜索排序
前言最近做了一个python3作业题目,涉及到:网页爬虫网页中文文字提取建立文字索引关键词搜索涉及到的库有:爬虫库:requests解析库:xpath正则:re分
词库
:jieba…放出代码方便大家快速参考
蛮三刀酱
·
2019-05-16 20:28
PostgreSQL 中文字段全文检索
一、安装SCWS中文分
词库
wgethttp://www.xunsearch.com/scws/down/scws-1.2.2.tar.bz2cdscws-1.2.2.
潘广宇 Leo
·
2019-05-14 16:16
PostgreSQL
手机百度输入法的郑码练习
V3.2,用多多码表编辑器将其我们的txt格式码表换化为QQ码表格式,选择“菜单→工具→常见码表格式转换”,完成后如图:然后用多多码表的“高级码表格式转换”将QQ码表转化为百度格式:=,==>=最后用“点讯
词库
制作工具
Eric the Red
·
2019-05-12 17:05
PHP利用百度ai实现文本和图片审核
之前做平台内容发布审核都是自己构建一套违禁
词库
,在代码中利用
词库
判断用户发布的内容,现在可以使用百度aiapi完成这个功能。
邪小爷
·
2019-05-08 14:37
有道词典app如何扩充
词库
和语音库?
有道词典怎么扩充
词库
和语音库呢?当前使用有道词典APP网友越来越多了,今天就讲解关于有道词典扩充
词库
和语音库的操作,一起去看看有道词典扩充
词库
和语音库的操作步骤吧。
佚名
·
2019-05-08 10:30
GitHub 上有意思的项目
电话归属地/运营商查询、名字推断性别、手机号抽取、身份证抽取、邮箱抽取、中日文人名库、中文缩写库、拆字词典、词汇情感值、停用词、反动词表、暴恐词表、繁简体转换、英文模拟中文发音、汪峰歌词生成器、职业名称
词库
米修斯_
·
2019-05-06 10:44
中文分词
基于规则的分词“基于规则的分词”思想:通过人工设立
词库
,按照一定方式进行匹配切分,其实现简单高效,但对新词很难进行处理。
dreampai
·
2019-04-28 14:40
【Python3】常见文本相似度计算方式及代码
近期在处理搜索引擎的相关项目下面介绍一下我们主要使用的相似度计算方式及其实现Github余弦相似度:余弦相似度是纯数学中的概念,首先,将进行计算的两个str中的word抽取出来,用作非重复
词库
。
DrogoZhang
·
2019-04-19 23:54
机器学习
数据挖掘
自然语言处理
搜索引擎
搜索引擎
自然语言处理
数据挖掘
自然语言处理(NLP)一些任务的总结
中常见的任务,从一个全局观来看看NLP:NLP任务总结一:词法分析分词(WordSegmentation/Tokenization,ws):在对文本进行处理的时候,会对文本进行一个分词的处理,下面是一个常用的
词库
奔向算法的喵
·
2019-04-19 13:55
【NLP】HMM用于词性标注以及hmmlearn框架使用
本篇代码可见:Github一、HMM用于词性标注使用nltk自带的Brown
词库
进行学习安装方式:pipinstallnltk导入方式:importnltk大体步骤如下:导入相关库预处理
词库
词统计(概率计算
Daycym
·
2019-04-16 13:20
NLP
【NLP】HMM用于词性标注以及hmmlearn框架使用
本篇代码可见:Github一、HMM用于词性标注使用nltk自带的Brown
词库
进行学习安装方式:pipinstallnltk导入方式:importnltk大体步骤如下:导入相关库预处理
词库
词统计(概率计算
Daycym
·
2019-04-16 13:20
NLP
谷歌拼音输入法离线包下载
谷歌拼音输入法1.0.15.0版盗用了搜狗拼音输入法的
词库
[4],随后谷歌发布致歉声明。并于2007
·
2019-04-13 12:00
Pytorch:BertModel使用
--vocab_dir:"str":
词库
文件地址.--bert_model:"str":存放
无聊的人生事无聊
·
2019-04-10 19:50
信息科学
Jieba库使用和好玩的词云
是优秀的中文分词第三方库-中文文本需要通过分词获得单个的词语-jieba是优秀的中文分词第三方库,需要额外安装-jieba库提供三种分词模式,最简单只需掌握一个函数(2)、jieba分词的原理Jieba分词依靠中文
词库
howtobecool
·
2019-04-09 22:52
墨墨背单词APP使用体验(强推)
第一点:它的
词库
非常充足,不管是恋恋有词,还是何凯文1573,考研大纲词汇,它都有,对于个人的背诵单词来说非常方便,可以配合自己买的
seizeeverthing
·
2019-04-06 09:58
Python-编辑距离-拼写检查
文章目录编辑距离遍历
词库
,全量计算编辑距离先生成指定编辑距离的词,再行匹配时间复杂度比较编辑距离是针对二个字符串的差异程度的量化量测,量测方式是看至少需要多少次的处理才能将一个字符串变成另一个字符串。
基基伟
·
2019-04-03 15:26
自然语言处理
Word2Vec源码解析
一、word2vec训练参数先根据输入的train_file文件创建两个数组,vocab和vocab_hash,vocab是
词库
数组,一维数组,每一个对象都是vocab_word类型;vocab_hash
TINGJUN
·
2019-03-31 22:57
redis搜索联想缓存方案设计
欢迎关注作者csdn传送门页面原型image.png缓存
词库
image.pngimage.png说明:建议所有的请求都走异步调用常用搜索
词库
数据统计规则:每天晚上12点定时取出所有人
词库
中排名靠前10位的搜索项并放入常用搜索库中分数值
阿祥小王子
·
2019-03-31 13:22
ElasticSearch pinyin分词支持多音字
比如在三一重工中,一重这个词在拼音
词库
polyphone.txt中有对应的词汇,读作
Ricky_Huo
·
2019-03-28 19:06
Elastic
Python学习之中文词云(jieba)
工具包:jieba分
词库
、JupyterNotebook。因为jieba是一个第三方库,所有需要我们在本地进行安装。
一醉南柯
·
2019-03-28 09:13
python
中文词频统计与词云生成
pipinstalljiebaimportjiebajieba.lcut(text)4.更新
词库
,加入所分析对象的专业词汇。jieba.add_word('天罡北斗阵'
linSeek
·
2019-03-25 19:00
中文词频统计
open('xiaoshuo.txt','r',encoding='utf-8')#通过文件读取字符串strstr=f.read()f.close()print(str)二.安装jieba三.(1)更新
词库
sakitam!
·
2019-03-18 21:00
停用
词库
汇总、去重版
GitHub上的中文停用
词库
,川大,哈工大以及百度停用
词库
的汇总,去重版本引用https://github.com/fighting41love/funNLP/tree/master/data/%E5%
CurryClot
·
2019-03-17 16:33
停用
词库
汇总、去重版
GitHub上的中文停用
词库
,川大,哈工大以及百度停用
词库
的汇总,去重版本引用https://github.com/fighting41love/funNLP/tree/master/data/%E5%
CurryClot
·
2019-03-17 16:33
文本特征提取
文本特征的通用信息源文本分类问题当中的对象词:在英文文本处理当中面对的是单个词组用空格隔开容易区分,在中文文本当中需要通过特定的
词库
如python中的jieba、中科院、清华、哈工大的一些分词工具来进行分词处理
Dulpee
·
2019-03-05 20:57
深度学习
自然语言处理
单词/句子的词向量表达
首先我们还是先举例,比如我们有一个
词库
V:V=(apple,going,I,home,machine,learning)首先是最简单的词袋模型的表达方式:apple:(1,0,0,0,0,0)going
简单随风
·
2019-03-01 18:49
自然语言处理
H5小游戏 【篇一】 组词游戏
H5小游戏篇一组词游戏项目功能简介
词库
功能,项目文件里配有csv格式的中文常用词组
词库
,每次随机抽取词语进行游戏匹配消除功能,自动在
词库
中匹配选中词语并进行消除选中动画以及消除动画,均由svg生成爆炸动画智能提醒系统
SuperX
·
2019-02-25 00:00
javascript
NLP基础笔记1——中文分词技术
基于规则的分词:主要是人工建立
词库
也叫做词典,通过词典
NLP_victor
·
2019-02-20 21:12
NLP
Redis went away
问题过程输入法业务于12月12日上线
词库
推送业务,根据用户uuid(uuid平台校验)进行
词库
推送,在12月17日早上8点多开始出现大量的php报错(Rediswentaway),报错导致了大量的链接积累
lvp
·
2019-02-18 20:00
董卿直呼佩服!这个5岁萌娃震惊央视综艺!
一时间,王恒屹被赞为“中华小诗
词库
”,圈粉无数,连董卿和撒贝宁都被他圈粉了。王恒屹2岁可以自己看书,3岁时已经认识2000多个汉字
模范家长会
·
2019-02-18 10:42
安装elasticsearch-analysis-ik中文分词器的步骤讲解
1安装elasticsearch-analysis-ik中文分词器Ik介绍:ik是一款中文的分词插件,支持自定义
词库
。
toto1297488504
·
2019-02-15 10:12
挤呀挤
图片发自App打题目‘挤呀挤’三个字的时候,是一个字一个字打出来,
词库
里没有这个词。看这几个小榛子紧紧地挤在一起,想起小的时候,跟小朋友们玩游戏,有一项就叫‘挤呀挤’。
山间一清泉
·
2019-02-02 19:11
上一页
30
31
32
33
34
35
36
37
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他