E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
词库
爬取搜狗
词库
#!/usr/bin/python3.7#-*-coding:utf-8-*-#@Time:2019/1/240024#@Email:
[email protected]
#@Software:PyCharmimportrequestsfromfake_useragentimportUserAgentfromurllib.parseimportquoteimportreimportstruct"""爬取搜狗只
jtyoui
·
2019-01-25 04:46
python
Elasticsearch搜索Suggest功能优化
搜索Suggest需要优化问题:怎么优化Suggest
词库
,提升Suggest词准确率怎么提高响应速度suggest
词库
获取冷启动可以从内容中提取热词数据来解决,或者人工设置挖掘搜索日志:挖掘近1个月搜索日志
sudop
·
2019-01-22 18:06
资料 | 国学书库(之四)—— 诗部
沈德潜《先秦汉魏晋南北朝诗》•逯钦立《古谣谚》清•杜文澜《玉台新咏》南朝陈•徐陵《苕溪渔隐丛话前集》•胡仔《苕溪渔隐丛话后集》•胡仔《姜斋诗话》•王夫之《梅磵诗话》•韦居安《文心雕龙考异》•張立齋《邵氏诗
词库
叶冷工作室
·
2019-01-19 00:49
网站敏感词检测
之前收集很多网站关键词检索工具类,分享一个很好用的,假如你的项目有评论,聊天这样的需求,可以参考,如果考虑不用自己添加
词库
,最好是去对接百度分控,网易等网站的敏感词过滤接口apipackagenet.jeeshop.web.action.front.modelComment
侠义非凡的郭先生
·
2019-01-18 16:46
java
在iOS-Swift项目中集成CppJieba分词
背景在垃圾短信过滤应用SMSFilters中,需要使用Jieba分
词库
来対短信进行分词,然后使用TF-IDF来进行处理`分
词库
是C++写的,这就意味着需要在Swift中集成C++库。
qiwihui
·
2019-01-16 00:00
jieba分词
swift
ios
stardict词典下载
StarDictDictionaries--星际译王
词库
词典下载原链接:http://download.huzheng.org/DictionariesInstallDictionariesinLinux
Tony_xxx
·
2019-01-15 20:05
ubuntu
Linux
Python jieba分词模块的基本用法
jieba(结巴)是一个强大的分
词库
,完美支持中文分词,本文对其基本用法做一个简要总结。
coco_1998_2
·
2019-01-13 14:22
jieba
Python
NLP
小智伴机器人——孩子最好的陪伴者
语音对讲,人机互动,亲子教育,亲情群聊,英汉互译,海量
词库
,古诗对词,地区方言,你问我答,在线教育,音乐点歌,语音识别,海量资源,百科全书,加减乘除,热门故事,对
远方_d520
·
2019-01-11 16:55
使用python统计《红楼梦》中人物出现的次数
1、安装jieba第三方库jieba库是优秀的中文分
词库
,它能够将句子分成词语。
IamTSF
·
2019-01-11 16:16
python
欧陆词典Pro词典
抱着试试的心态,用了一段时间,感觉比有道和金山翻译强多了,而且它能够自定义扩展
词库
,比如欧陆
词库
网址他有很多专业的
词库
提供,对于我们工科的简直不要太好用!!不过
文鸿开源工作室
·
2019-01-09 16:14
破解
词典
欧陆词典
专业词汇翻译
Android离线敏感词校验
本文资源来自:https://github.com/k5h9999/keywordfilter作者:k5h9999说明:基于分词原理修改写的一个过滤敏感
词库
,可以改成动态,本敏感词收集了4W多个违法词、
duyi324
·
2019-01-08 17:32
jieba.cut和posseg.cut自定义
词库
特殊字符问题
python\Lib\site-packages\jieba\init.py(#注释掉的是原文)#re_han_default=re.compile(“([\u4E00-\u9FD5a-zA-Z0-9+#&._]+)”,re.U)re_han_default=re.compile(“(.+)”,re.U)#re_userdict=re.compile(‘^(.+?)([0-9]+)?([a-z]+
AxeChen
·
2019-01-07 15:20
基础
介绍几个比较特别的学英语APK
vocab.com比较有名的英英学习单词网站,还有人转成离线
词库
。scrabbleexpert玩scrabble用,可以发现很多自己想不到的单词gremonics自带容易记忆的方法记GRE。
DarkxLight
·
2019-01-05 17:35
关键词敏感字高效查找匹配算法
本算法对纯文本匹配执行效率已改进到:5000字5毫秒(2400敏感
词库
)原理:基于多叉树的查找。
无知无畏丶
·
2019-01-04 15:30
笔记
一位创业者投入近50万资金去做小程序,这事做的很钟情
目前有点意思科技正在招募技术大牛合伙人,和志同道合的朋友,一起构建中国方言诗
词库
;同时,创始人向阳告诉见实,这个项目还正在融资当中;另外,有关方言读诗词的矩阵小程序产品,还会在2019年大力推进。
见实
·
2018-12-29 00:00
第四部分 对抗网络GAN (七) 对抗网络应用:NLP对话生成
但是效果不是很好(
词库
量、训练量都太大)我们先看看用Reinforcementlearning的方法1.Reinforcementlearning(hu
人工智能插班生
·
2018-12-27 09:22
深度学习
神经网络
GAN
对抗网络
课后作业三
微软必应词典拥有权威丰富的
词库
和例句库,及时发现并收录网络新兴词汇,可以提供优质的免费词典和翻译服务。基于微软强大的技术实力和创新能力,独创性的
姜丛0103
·
2018-12-25 20:00
理解TF-IDF(转载)
TF-IDF,理解起来相当简单,他实际上就是TF*IDF,两个计算值的乘积,用来衡量一个
词库
中的词对每一篇文档的重要程度。下面我们分开来讲这两个值,TF和IDF。
阿门aaa
·
2018-12-25 10:12
大作业
#导入os包加载数据目录importospath=r'F:\迅雷下载\258'#停
词库
withopen(r'F:\迅雷下载\stopsCN.txt',encoding='utf-8')asf:stopwords
cjh陈
·
2018-12-23 22:00
大作业
importosimportnumpyasnpimportsysfromdatetimeimportdatetimeimportgcpath='F:\\jj147'#导入结巴库,并将需要用到的
词库
加进字典
Peace*
·
2018-12-20 23:00
NLP相关的资料--持续更新
CNN,Fastetxt不错的介绍http://www.52nlp.cn/tag/fasttext一个kaggle的案例:https://zhuanlan.zhihu.com/p/51675979搜狗的
词库
Walter_Silva
·
2018-12-19 23:16
NLP
直角引号怎么打?
2、找到微软拼音,点击选项3、点击
词库
和自学习。4、点击添加或编辑自定义短语5、添加即可「」,『』,我把直角引号打出来,供大家粘贴。6、看看效果。
AaronYu__
·
2018-12-16 18:10
命名实体识别(NER)
分
词库
:NLPIR张华平博士THULA
Mr_John_Liang
·
2018-12-05 19:32
NLP
数据——创造新的价值的源泉
墨者写作小黑屋如何开启?墨者写作开启小黑屋的方法
墨者写作app是一款帮助用户快速码字的快捷写小说的手机软件,软件具有数据统计、随机取名、敏感
词库
查询、时间和字数锁定码字等服务功能,接下来的文章中小编将会带来详细的操作方法,需要的朋友不要错过哦!
佚名
·
2018-12-04 10:55
墨者写作如何将文本导出?墨者写作将章节导出的方法
墨者写作app是一款帮助用户快速码字的快捷写小说的手机软件,软件具有数据统计、随机取名、敏感
词库
查询、时间和字数锁定码字等服务功能,接下来的文章中小编介绍是将该软件内编写的小说章节导出的方法,需要的朋友不妨阅读本文了解一下
佚名
·
2018-12-03 14:47
算法之智能搜索(二)
一、首先我们获取细胞
词库
内容①建表语句:DROPTABLEIFEXISTS`sougou_ciku`;CREATETABLE`sougou_ciku`(`id`varchar(50)NOTNULL,`text
Red_Ant_hoyl
·
2018-11-25 00:13
利用
搜狗
细胞词库
java技术
基于
词库
的分词算法:正向最大匹配法,逆向最大匹配法,双向最大匹配法
#-*-coding:utf-8-*-"""CreatedonThuNov2215:28:422018NLPlearning@author:jack"""classIMM(object):def__init__(self,dic_path):self.dictionary=set()self.maximum=0withopen(dic_path,'r',encoding='utf-8')asf:f
Jack千斤顶
·
2018-11-22 16:14
百度地图怎么自动同步通讯录到
词库
?
百度地图可以设置自动同步手机通讯录到
词库
中,这样就可以语音的时候更加准确,该怎么同步呢?下面我们就来看看详细的教程。
lqlxhua
·
2018-11-16 15:07
TensorFlow使用CNN实现中文文本分类
但之前的学习基本上都是在英文
词库
上训练的。
pan_jinquan
·
2018-11-14 19:21
TensoFlow
NLP
深度学习
Python【jieba】词性标注表
文章目录jieba词性标注表(0.39版)读取jieba
词库
,生成词性标注表,保存为excel带词性的分词词与词性间映射en2cn字典映射补充nltk词性标注表百度AI词性标注表用于【句法分析】用于【词法分析
基基伟
·
2018-11-12 19:59
自然语言处理
你忙的不可开交,却一无所获,你知道为什么嘛?
然后你开始每天打卡背单词,在吃午饭排队的时候,眼睛也会时不时的看向单
词库
,嘴里也会嘟嘟嚷嚷的跟着念opportunity,o-p-p-o-r-t-u-n-i-t-y,o-p-p-o-r,等到晚上躺在床上
年糕学长
·
2018-11-08 22:36
HanLP用户自定义词典源码分析详解
官方文档及参考链接l关于词典问题Issue,首先参考:FAQl自定义词典其实是基于规则的分词,它的用法参考这个issuel如果有些数量词、字母词需要分词,可参考:P2P和C2C这种词没有分出来,希望加到主
词库
adnb34g
·
2018-11-02 10:04
hanlp
自定义词典源码
自然语言处理
结巴分词原理
介绍结巴分词是一个受大家喜爱的分
词库
,源码地址为github,今天我们就跟进源码,看一下结巴分词的原理原理defcut(self,sentence,cut_all=False,HMM=True):'''
gustiness
·
2018-11-02 00:00
分词
python
机器学习
nlp
Python 解析百度,搜狗
词库
最近在解析百度
词库
https://shurufa.baidu.com/dict。说一下解决思路吧。把文件下载下来会发现是字节流。而计算机存储数据有两种方式,大端字节序,小端字节序。
dapengzhao
·
2018-11-01 15:22
微信公众号开发消息推送以及图文推送
我今天将它
词库
进行了更新和升级,接入了http://www.itpk.cn/机器人第三
词库
先给你截图:机器人的配置:
词库
信息。可以自定义
词库
信息来看看进一步效果是不是乖巧多了哈哈哈。
猿码优创
·
2018-10-30 17:44
技术
猿码优创
Scrapy 搜狗
词库
爬虫
我写这篇文章的目的是记录一下在学习他的搜狗
词库
抓取&解析中遇到的问题。
AmazingUU
·
2018-10-26 23:38
Python
思维导图与英语应用(双证班10/11)
面对海量单
词库
,思维导图可以利用发散思维建立联系,小图标联想强调关键内容,图文结合吸引五感,激发兴趣的优势,非常有助于快速记单词。英语
逸柏妈
·
2018-10-23 23:56
kali linux安装搜狗输入法
小白KaliLinux安装搜狗输入法,之所以选搜狗原因是:
词库
强大,习惯使用无可替代!!!小白小白上楼梯,抽出小天线,打开电视机,电视不好看,关掉电视机,。从小白开始吧!
ck2009159
·
2018-10-23 22:00
我在背了1215天单词之后在思考些什么。
这样做有什么好处:(1)增加了词汇量,我在没有清空
词库
的时候,我的词汇量是3w9,日常平时使用3w5就足够了,当然我还见过一些巨佬,他们的词汇量是5w左右(Wordsmenu),但是当我背到很多意大利语和日语的时候
亚提斯
·
2018-10-11 18:07
CS224N学习笔记(二)—— Word2Vec
计算语言学中常见的方式是WordNet那样的
词库
。比如NLTK中可以通过WordNet查询熊猫的上位词就可以得到“食肉动物”“动物”之类的上位词。
freedom_king
·
2018-10-09 21:24
Elasticsearch5.6.11+Ik分词器和自定义
词库
的配置与使用
1、Ik分词器下载在https://github.com/medcl/elasticsearch-analysis-ik中下载对应版本的IK分词器elasticsearch-analysis-ik-5.6.11.zip。2、Ik分词器配置在elasticsearch-5.6.11根目录plugins文件夹下新建一个名为ik的文件夹,将elasticsearch-analysis-ik-5.6.11
cleargy
·
2018-10-09 18:43
Lucene
安装jieba分
词库
1.python安装jieba库https://pypi.org/project/jieba/#files下载压缩包,解压2.在cmd里cd到解压缩的文件夹里,即setup的文件夹image.png3.在cmd里输入安装命令pythonsetup.pyinstall出现下面的场景说明安装成功image.png4.验证一下是否安装成功image.png安装成功
曦宝
·
2018-10-09 15:55
6大类19个少数派学习效率类APP,你知道几个?
1、英语类百词斩、英语流利说、欧陆词典、扇贝个人偏向于百词斩,如果你要扩展你的单
词库
那百词斩最合适;如果你想练习口语、听力,就用英语流利说;如果日常工作学习中不懂的单词那欧陆词典足够了。
办公小能手666
·
2018-09-27 13:24
Hanlp自然语言处理工具的使用演练
本篇将用户输入的语句根据
词库
进行分词、关键词提取、摘要提取、
词库
维护。工具类名称:DKNLPBase1、标准分词方法签名:ListStandardTokeni
左手中的倒影
·
2018-09-19 11:56
高转化的亚马逊关键词
词库
应该这样搭建,一点建议
电商生意需要解决的最重要的问题之一:如何通过互联网把产品展示在需要它的客户面前?没有曝光,也就谈不上销量。而联结客户需求与相关产品之间的纽带就是产品关键词。在亚马逊平台上,客户搜索产品关键词,亚马逊为他展示最相关的产品。===我是正文分割线===所以我们可以看到,关键词至少要符合两个条件:有客户搜索(满足需求)设置的产品关键词与客户搜索词相匹配(相关性)如果找到了很多与产品高度相关,且这些关键词的
十点跨境
·
2018-09-15 09:00
Python 搜狗
词库
的批量下载
Python搜狗
词库
的批量下载简介搜狗的细胞
词库
是一个开放共享的
词库
,其中集结了众多网友提交的词语信息,从搜狗细胞
词库
的首页的最新数据来看,有19520个网友创建了27695个
词库
共48482247个词条
圈圈烃
·
2018-09-14 10:53
Python
根据敏感词
词库
进行过滤的方法 javascript
//定义方法functionsensitive(content){varkeywords=["暴力","色情","fuck","TMD"];//敏感词
词库
varvalue=content;//获取需要过滤的内容
qq_36171451
·
2018-09-07 10:36
基于海量
词库
的单词拼写检查、推荐到底是咋做的?
前言在我们日常应用中,应该遇到不少类似的状况:写文档时,单词拼写错误后,工具自动推荐一个相似且正确的拼写形式;使用搜狗输入法时,敲错某个字的拼音照样能够打出我们想要的汉字;利用搜索引擎进行搜索时,下拉框中自动列出与输入相近的词语。等等,不一一列举。这种功能是如何实现的呢?里面用到了哪些算法呢?本文就来介绍一个能够完成这个任务的算法。问题描述其实,这几个问题都能够转换成同一个问题:即对于给定的输入字
haolujun
·
2018-09-05 08:00
Ubuntu 18.04 安装搜狗输入法折腾记
搜狗输入法是老牌的中文输入法,它的易用性、海量
词库
和强悍的云输入一直是广大国人提升输入效率的利器,可谓“码字必备”。PC端上,先前官方开发的是Windows和MacOS版本,并没有Linux版本。
爱拼安小匠
·
2018-09-01 23:26
京东JIMI 技术架构
架构演变基础技术架构JIMI智能机器人现有技术架构主要由以下模块组成,如图1所示:(1)算法:包括纠错、分词、实体识别、知识图谱、词法分析等模块,根据用户输入的问题,结合领域术语
词库
和其他语法、语义方面的资源
limus
·
2018-08-28 17:59
上一页
31
32
33
34
35
36
37
38
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他