E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
词库
最强大脑(二十四):第三章秒杀英语记单词3
这种单词往往有历史较短、接近现代的特点,在英语
词库
中不多
育儿顾问愉悦妈妈
·
2020-08-24 06:12
吴恩达NLP(3) S2S
集束搜索方法假设B=3,则第一个单词存在三种情况,在10000个
词库
中,选择前3个概率最高的,然后在这三种情况下分别取找第二个单词,则会有3*10000=30000种情况,然后再在这些情况中找前三个较好的概率
丁叔叔
·
2020-08-24 04:20
NLP
深度学习
第一节:Jieba分词
在汉语分词中,我们最常用的就是jieba分词分
词库
了。jieba是一款开源的分词工具包,广泛应用于文本分析,词云绘制,关键词提取,自然语言处理等领域。
taon1607
·
2020-08-24 02:31
自然语言处理
Anaconda3(在D盘)安装jieba库具体步骤
Anaconda3虽然自带有大量的package第三方库,但是有些但三方库还是没有的,需要自己去安装,比如中文分
词库
jieba库从官网(https://pypi.org/project/jieba/)上下载安装包
希望之下
·
2020-08-24 02:30
Python程序设计
使用正向最大匹配算法实现中文分词简单模型-用trie树实现
构建
词库
。扫描
词库
匹配。Trie树又称为字典树。Trie树当关键码是可变长时,Trie树是一种特别有用的索引结构。
tattarrattat
·
2020-08-24 01:34
工作记录
TextCNN模型原理及理解
对于文本中的词语可先构建大的
词库
集,用
he613
·
2020-08-24 00:18
机器学习
机器学习
深度学习
文本分类
自然语言处理
NLP
sphinx搜索引擎中文分词匹配规则说明
例如:假设分
词库
中有“设备”、“通用”、“通用设备”、“通”、“用”、“设”、“备”等汉字及词组,以下规则成立:1.如果被检索的索引中存在有“通用设备”和“通用”、“设备”的文档(doc),这时用“通用设备
gianttj
·
2020-08-24 00:52
中文分词器 jcseg
支持自定义
词库
。在lexicon文件夹下,可以随便添加/删除/更改
词库
和
词库
内容,并且对
词库
进行了分类。如何给jcseg添加
词库
/新词4。中文数字识别,例如:"四五十个人都来了,管他叁柒贰拾壹。"
chenjia3615349
·
2020-08-24 00:37
solr
solr 实现拼音匹配
/dic/dict.txt----拼音
词库
地址
chenjia3615349
·
2020-08-24 00:37
solr
【NLP】之文本表示
词库
:训练数据中出现的所有单词,可以使用jieba分词统计出来。混淆矩阵:混淆矩阵是数据科学、数据分析和机器学习中总结分类模型预测结果的情形分析表,以矩阵形式将数据集中的记录按照真实的类别
prepared
·
2020-08-23 23:31
AI
【扇贝批量添加单词到
词库
】利用python调用扇贝API (oauth2)
扇贝还是很不错的背单词系统,但是我一直不理解为什么官方提供的批量添加单词页面每次限制10个==。美剧党随手挤了很多单词准备导入的时候,还有从有道单词本导入的时候,都很尴尬。。查了一下,还没有人写过这方面的东西,所以尝试着用python写了个。下载地址:http://pan.baidu.com/s/1bn93yftgithub:https://github.com/yuchenlin/shanbay
Island_lin
·
2020-08-23 23:47
python
开发
API
python
API
词库
扇贝
添词
文艺星黄山:文学大展 黟县篇之徐英明
著有诗集《古黟诗韵》,有作品入选《中国当代诗词精品库》、《当代中华诗
词库
》。徐英明古体诗作《七律•屏山古镇——徽州第一
文艺星空刊
·
2020-08-23 22:37
【Python 3+】jieba从零到壹小白级入门(含代码示例)
【文章目录】一、jieba是什么二、jieba的特点三、jieba的安装四、jieba的用法一、jieba是什么jieba,结巴中文分词,一款优秀的Python第三方中文分
词库
,是自然语言分析(NLP)
藝小郴
·
2020-08-23 14:52
讯飞输入法-更快地输入方式
一、建立个人的索引
词库
首先需要建立个人的索引
词库
,之后当输入对应的索引时,就能迅速加载索引对应的内容。而且单个索引可以对应多条内容。
记忆教练赵俊祥
·
2020-08-23 10:46
ubuntu-linux下的精品软件大汇总
,我用linux也快半年了,感觉linux确实很强大的,很好用的,为了帮助大家更好的使用linux,我总结了一下我认为比较好的软件,和大家分享:1.输入法:我比较喜欢用fcitx,也就是小企鹅输入法,
词库
还可以
weixin_33699914
·
2020-08-23 07:41
母亲的文字
可是,翻遍整个记忆里的
词库
,都感觉太华丽。而我的母亲,是极其朴实的。
秋之语
·
2020-08-23 03:07
jieba python中文分
词库
快速入门
http://blog.sina.com.cn/s/blog_7d8326290102vzpb.htmlhttps://www.jianshu.com/p/22cdbbeeb778
星辰浩宇
·
2020-08-23 01:56
python
无题
你应该边喝着冰凉甜酒边看剧情跌宕的小说,甜酒的冰凉刺激着你的味蕾,跌宕的剧情和优美的
词库
愉悦着你的心绪。你应该关上门窗,隔离一切声响,把自己抛到世界边缘,感受笔纸的摩擦带来的宁静和抽离。
凡所有相皆是虚妄
·
2020-08-22 16:32
【pytorch实战1】用skip-gram训练词向量
Skip-gram原理如图我们最终想要的是
词库
中单词的词向量表示,所以使用一层神经网络来实现Skip-gram算法,最后得到WordE
mapsnirc
·
2020-08-22 13:36
NLP学习
Spark:基于jieba分词的特征向量提取
{Path,Paths}//加入自定义
词库
时路径需要的包importcom.huaban.analysis.jieba.{JiebaSegmen
你的莽莽没我的好吃
·
2020-08-22 12:07
大数据
java 实现敏感词(sensitive word)工具详解使用说明
特性6W+
词库
,且不断优化更新基于DFA算法,性能较好基于fluent-api实现,使用优雅简洁支持敏感词的判断、返回、脱敏等常见操作支持全角半角互换支持英文大小写互换快速开
叶止水
·
2020-08-22 11:20
github
敏感词
Mac 鼠须管 Rime 输入法 安装五笔输入法 教程
该输入法在不同平台的名字也不同Windows-小狼毫(weasel)macOS-鼠须管(squirrel)Linux-中州韵(ibus-rime)目前本人已知的Rime在windows和macOS平台上的
词库
配置是相同的
KyleBing
·
2020-08-22 11:19
macos
rime
输入法
github
在thinkphp中引入自定义的敏感
词库
本文主要讲述,如何在thinkphp项目中创建敏感
词库
方法,如何引入敏感
词库
,以及如何将敏感
词库
用到项目中。首先是在项目的thinkphp的第三方插件目录中,引入自定义的敏感
词库
。
Alvin哥哥
·
2020-08-22 10:09
thinkphp3常用功能
spark分词工具
github.com/NLPchina/ansj_segHanLP(https://github.com/hankcs/HanLP#7-极速词典分词)最终选择了HanLP二、Ansj利用DicAnalysis可以自定义
词库
我叫龙翔天翼
·
2020-08-22 04:32
AI
ML
一个人工智能项目里的中文分词方案
做搜索的都知道,中文分词,一般都是先建一个
词库
,再根据
词库
进行分词。但是这样做有两个问题:1.存在歧义词,2.不容易发现新词。尤其第2点,在处理舆情类内容时更是如此。
weixin_30484247
·
2020-08-22 03:31
悦悦第4天作业 #被动引流增长训练营#
个自己可以提供给客户的增值服务(19号)新闻媒体快刷SEO排名媒介资源2000+:央广网/CCTV/搜狐/新浪/新华社/中国网等搜索数据精细化拆分用户需求网站被K恢复/白帽SEO排名优化业务线SEO目标客户引流
词库
搭建
悦悦Ashly
·
2020-08-22 01:25
spark ansj中文分词
_importorg.ansj.recognition.impl.StopRecognitionimportorg.ansj.library.DicLibrary第一个是导入ansj分
词库
;第二个导入停用
词库
cxy__s
·
2020-08-22 01:08
spark
Lucene评分规则机制
根据分词
词库
,所有的文档在建立索引的时候进行分词划分。进行搜索的时候
sunyang098
·
2020-08-22 01:04
综合
lucene
solr
搜索
score
NLP学习03_停用词过滤、stemming、文本表示tf-idf、文本相似度
具体包括两类:1、停用词过滤,对理解文本没意义的词,a\an2、出现频率低的词过滤过滤要考虑自己的应用场景:比如好、很好等词,在情感分析中这些词很重要,在有些地方是作为停用词的一般是使用别人已经定义好的停用
词库
渣渣小耳
·
2020-08-21 18:22
nlp
coreseek添加新
词库
coreseek添加新
词库
coreseek使用mmseg作为分词工具,默认的
词库
是有限的,我们需要为mmseg增加自定义词,用来丰富
词库
,实现更加精准的搜索服务。
tglhmily1
·
2020-08-21 16:22
coreseek
coreseek
背单词软件深度体验后的分享之百词斩
首次登录之后,选择需要背的
词库
,一天要背诵的单词数量,然后就可以开始背单词了。单词界面最下方有5个分类:分别是首页,
王虹亮
·
2020-08-21 10:52
java敏感词过滤(
词库
+算法)高效率验证
需求:用户输入一段文字,验证是否包含敏感词,以及具体的是哪些敏感词,替换为*等....1.需要一个
词库
,我这里就是一个从github下载的一个txt文件。
yqwang75457
·
2020-08-21 07:42
java
关于输入法拼音拆分算法
今编码时,欲以注音之法打字于文本框内,而检其音于
词库
,期以
词库
之小而得输入之疾也。为之,须臾困于句读之否识,故求百度以拆解之法,或拙或鄙,无可为者。有道是:“纸上得来终觉浅,觉知此事要躬行。”
a563501734
·
2020-08-21 02:51
Sphinx的安装和使用
的使用两种方式:1、使用sphinx的API来操作sphinx,PHP中将API编译到PHP中作为扩展2、使用mysql的sphinx的存储引擎sphinx是英文的全文检索引擎,coreseek是支持中文
词库
的全文检索引擎
刘笨笨
·
2020-08-21 00:16
sphinx
结巴分词 java 高性能实现,优雅易用的 api 设计,性能优于 huaban jieba 分词
SegmentSegment是基于结巴分词
词库
实现的更加灵活,高性能的java分词实现。变更日志创作目的分词是做NLP相关工作,非常基础的一项功能。
叶止水
·
2020-08-20 23:38
nlp
github
jieba分词
结巴分词 java 高性能实现,优雅易用的 api 设计,性能优于 huaban jieba 分词
SegmentSegment是基于结巴分词
词库
实现的更加灵活,高性能的java分词实现。变更日志创作目的分词是做NLP相关工作,非常基础的一项功能。
叶止水
·
2020-08-20 23:38
nlp
github
jieba分词
使用cjieba(结巴分
词库
)实现php扩展中文分词-支持php5, php7
编译安装gitclonehttps://github.com/jonnywang/jz.git(php7)gitclonehttps://github.com/jonnywang/phpjieba.git(php5)cdjz/cjiebamakecd..phpize./configure--enable-jiebamakemakeinstall配置php.iniextension=jz.sojz.
极致极简
·
2020-08-20 23:39
php
分词
jieba分词
使用cjieba(结巴分
词库
)实现php扩展中文分词-支持php5, php7
编译安装gitclonehttps://github.com/jonnywang/jz.git(php7)gitclonehttps://github.com/jonnywang/phpjieba.git(php5)cdjz/cjiebamakecd..phpize./configure--enable-jiebamakemakeinstall配置php.iniextension=jz.sojz.
极致极简
·
2020-08-20 23:38
php
分词
jieba分词
php的分词 VicWord 发布 1.4版
VicWord一个纯php的分词主要更新:1.添加默认
词库
路径2.
词库
不存在返回false,改为抛出异常。
探索者
·
2020-08-20 23:11
php
分词
php的分词 VicWord 发布 1.4版
VicWord一个纯php的分词主要更新:1.添加默认
词库
路径2.
词库
不存在返回false,改为抛出异常。
探索者
·
2020-08-20 23:11
php
分词
在iOS-Swift项目中集成CppJieba分词
背景在垃圾短信过滤应用SMSFilters中,需要使用Jieba分
词库
来対短信进行分词,然后使用TF-IDF来进行处理`分
词库
是C++写的,这就意味着需要在Swift中集成C++库。
qiwihui
·
2020-08-20 21:09
ios
swift
jieba分词
在iOS-Swift项目中集成CppJieba分词
背景在垃圾短信过滤应用SMSFilters中,需要使用Jieba分
词库
来対短信进行分词,然后使用TF-IDF来进行处理`分
词库
是C++写的,这就意味着需要在Swift中集成C++库。
qiwihui
·
2020-08-20 21:09
ios
swift
jieba分词
结巴分词原理
介绍结巴分词是一个受大家喜爱的分
词库
,源码地址为github,今天我们就跟进源码,看一下结巴分词的原理原理defcut(self,sentence,cut_all=False,HMM=True):'''
gustiness
·
2020-08-20 21:45
nlp
机器学习
python
分词
结巴分词原理
介绍结巴分词是一个受大家喜爱的分
词库
,源码地址为github,今天我们就跟进源码,看一下结巴分词的原理原理defcut(self,sentence,cut_all=False,HMM=True):'''
gustiness
·
2020-08-20 21:44
nlp
机器学习
python
分词
用golang实现基于DFA算法编写的敏感词汇检测插件
SensitiveWords基于DFA算法用golang实现了一个敏感词、违禁词插件,可以直接集成到项目中,也可以独立部署,敏感词、违禁词比较依赖于敏感
词库
,这个插件带了一个默认的
词库
,不是很灵活,可以自己添加或者替换
词库
文件
onepunchgo
·
2020-08-20 21:15
识图吟诗
构建和运行识图吟诗是一个创意作品,通过使用watson相关的API,对图片进行认知分析,之后在诗
词库
中选择置信度较高的诗句作为结果
阿然
·
2020-08-20 20:41
python
flask
ibm
识图吟诗
构建和运行识图吟诗是一个创意作品,通过使用watson相关的API,对图片进行认知分析,之后在诗
词库
中选择置信度较高的诗句作为结果
阿然
·
2020-08-20 20:41
python
flask
ibm
使用cjieba(结巴分
词库
)实现php扩展中文分词-支持php5, php7
作者git地址:https://github.com/jonnywang/...编译安装gitclonehttps://github.com/jonnywang/jz.git(php7)gitclonehttps://github.com/jonnywang/phpjieba.git(php5)cdjz/cjiebamakecd..phpize./configure--enable-jiebama
极致极简
·
2020-08-20 20:42
php
c
分词
jieba分词
使用cjieba(结巴分
词库
)实现php扩展中文分词-支持php5, php7
作者git地址:https://github.com/jonnywang/...编译安装gitclonehttps://github.com/jonnywang/jz.git(php7)gitclonehttps://github.com/jonnywang/phpjieba.git(php5)cdjz/cjiebamakecd..phpize./configure--enable-jiebama
极致极简
·
2020-08-20 20:42
php
c
分词
jieba分词
使用cjieba(结巴分
词库
)实现php扩展中文分词
编译安装gitclonehttps://github.com/jonnywang/jz.gitcdjz/cjiebamakecd..phpize./configure--enable-jiebamakemakeinstall配置php.iniextension=jz.sojz.enable_jieba=1jz.dict_path=/Users/xingqiba/data/softs/jz/cjie
xingqiba
·
2020-08-20 20:07
jieba分词
中文分词
扩展
分词
php
上一页
14
15
16
17
18
19
20
21
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他