E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
IK分词
elastciSearch源码分析——集成分词器
阅读更多要把分词器集成到elasticSearch里面,肯定先要弄到
ik分词
器的源码。
yucang52555
·
2014-11-18 16:00
elasticSearch
java开源
ansj分词器
插件集成
Himooc学术生态设想
使用Lucene+
IK分词
器作为搜索引擎。用户可以免费下载电子书预览文件,查看电子书信息。用户也可以付费成为会员,下载无水印的全本电子书。
himooc
·
2014-10-21 20:00
在elasticsearch 的Java客户端使用
IK分词
器的问题解决
前提描述,关于如何在elasticsearch中使用
IK分词
器网上已经有很多资料了,这里不再叙述。下边主要说我遇到的问题和解决办法,以及将来大家可能也会遇到的问题。
achilles12345
·
2014-10-19 00:00
elasticsearch
IK
solr 中文分词器
IK分词
器的配置
这样我们自己加入的分词器才会引到的solr中..
IK分词
器的安装首选要去下载IKAnalyzer的发行包.下载地址:http://ik-analyzer.googl
zhuhongming123
·
2014-10-15 17:00
tomcat
Solr
IKAnalyzer
中文分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词
器为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词
器为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词
器为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词
器为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词
器为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词
器为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Lucene
Solr
ik分词
IK分词
源码分析连载(四)--停用词+未切分词处理
转载请注明出处:http://blog.chinaunix.net/uid-20761674-id-3425302.html 前面三篇文章介绍了
IK分词
的两个核心模块:子分词器和歧义处理,这篇文章收尾,
renyp8799
·
2014-10-10 16:00
IK分词
源码分析连载(三)--歧义处理
转载请注明出处:http://blog.chinaunix.net/uid-20761674-id-3424553.html 前一篇介绍了
IK分词
源码分析连载(二)--子分词器开始进入
IK分词
的另一个核心模块
renyp8799
·
2014-10-10 15:00
IK分词
源码分析连载(二)--子分词器
转载请注明出处:http://blog.chinaunix.net/uid-20761674-id-3424176.html 第一篇文章
IK分词
源码分析连载(一)--主流程 概要描述了
IK分词
的主要流程及其功能
renyp8799
·
2014-10-10 15:00
IK分词
源码分析连载(一)--主流程
转载请注明出处:http://blog.chinaunix.net/uid-20761674-id-3423941.html
IK分词
全名IKAnalyzer,是基于Java语言开发的轻量级的中文分词工具包
renyp8799
·
2014-10-10 14:00
elasticsearch资料
page=1elasticsearch中文翻译网站:http://www.elasticsearch.cn/
ik分词
插件项目地址
aoyouzi
·
2014-10-09 10:00
elasticsearch
资料
elasticsearch资料
page=1elasticsearch中文翻译网站:http://www.elasticsearch.cn/
ik分词
插件项目地址
aoyouzi
·
2014-10-09 10:00
elasticsearch
资料
solr
ik分词
目前
Ik分词
器相对来说是中文分词中用的相对较多的,比较流行的一种分词器了,与solr组合相当完美的一种中文分词器了,其他的庖丁和solr自带的分词器也相对较多,下面我主要说一下我在使用solr
fan0128
·
2014-09-22 22:00
Solr
ik分词
Lucene使用IKAnalyzer中文分词笔记
本文主要讲解IKAnalyzer(以下简称‘IK’)在Lucene中的具体使用,关于Lucene和
IK分词
器的背景及其作用在这里就不再熬述。
Jialy
·
2014-09-02 17:00
Lucene
IKAnalyzer
中文分词
elasticsearch
ik分词
实现
本次实现环境: 操作系统:windows xp elasticsearch版本:1.0.3 ik版本:1.2.3 以上的文件附在附近供下载。 1、先将下载的elasticsearch-analysis-ik-1.2.3.jar放在ES_HOME\plugins\analysis-ik\下; 2、将ik.rar解压到ES_HOME\config\
Hsiang
·
2014-08-23 22:00
elasticsearch
elasticsearch
ik分词
实现
本次实现环境: 操作系统:windows xp elasticsearch版本:1.0.3 ik版本:1.2.3 以上的文件附在附近供下载。 1、先将下载的elasticsearch-analysis-ik-1.2.3.jar放在ES_HOME\plugins\analysis-ik\下; 2、将ik.rar解压到ES_HOME\config\
Hsiang
·
2014-08-23 22:00
elasticsearch
hadoop中文分词、词频统计及排序
这里中文分词使用了
IK分词
包,直接将源码放入src中。感谢
IK分词
。程序如下:packageseg; importjava.io.ByteArrayInputStream; imp
ozhaohuafei
·
2014-08-17 11:00
mapreduce
hadoop
中文分词
IK分词
器安装
看一篇很不错的关于
IK分词
的安装的博文,已经测试过了,可以使用一、IK简介 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
红皮小猪
·
2014-08-04 12:00
解决IkAnalyzer分词后文章字符全角变半角,字母大写变小写问题
工作中利用ik对文章里的字符做分词然后返回分词后的字符进行关键字替换最后处理后的字符发下文章里的全角都被ik改成了半角,英文字母如果是大写的也被ik改成了小写,这是
ik分词
内部类规则的一个特性一般用来做搜索的时候用的
zqb666kkk
·
2014-07-18 16:00
ik分词
Linux(CentOS6.4)Solr4.8.1中文分词配置(
IK分词
)
1、环境准备CentOS6.4、Tomcat6.0、Jdk1.7、Solr4.8.1、IKAnalyzer2012FF_hf12、配置步骤(1)下载IKAnalyzer分词包,解压缩(2)将IKAnalyzer2012FF_u1.jar拷贝到solr服务的目录solr/WEB-INF/lib下cp/usr/download/IKAnalyzer2012FF_hf1/IKAnalyzer2012FF
zwx19921215
·
2014-06-21 15:00
配置
Solr
中文分词
ik分词
ElasticSearch的
ik分词
插件开发
ik插件,说白了,就是通过封装
ik分词
器,与ElasticSearch对接,让ElasticSearch能够驱动该分词器。那么,具体怎么与ElasticSearch对接呢?
肖慧
·
2014-05-26 09:00
java
elasticsearch
plugin
IK
插件开发
solr4.8安装步骤和配置
IK分词
器
Solr4.8安装步骤如下:1.下载solr4.8,到Apache官网下载2.准备一个tomcat,我这边用tomcat73.将下载好的solr4.8解压缩开,将里面的solr-4.8.0\solr-4.8.0\example\webapps\solr.war拷贝到上面的tomcat的webapps目录。4.建立一个solr工作目录,比如D:\solr\home。将\solr-4.8.0\solr
sharkbobo
·
2014-05-05 12:00
源码分析
ik分词
主流程
1、首先内存中建立词典树。 包括:主词典树、 停止词词典树 、量词词典树 数据结构:树 (或说字典树) ,子节点<=3时,数组存储DictSegment[] childrenArray; >3时迁移到hashMap Map<Character , DictSegment> childrenMap; 根:DictSegment _Ma
thrillerzw
·
2014-05-05 00:00
源码分析
ElasticSearch安装
ik分词
插件
一、IK简介 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本
肖慧
·
2014-05-03 21:00
java
elasticsearch
中文分词
IK
ik分词
一、 ik-analyzer分词1、下载 “IKAnalyzer2012FF_hf1.zip”包:http://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1.zip 源码: https://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1_sou
thrillerzw
·
2014-04-19 12:00
ik分词
solr4.7 分词成功,索引成功,匹配不成功?!(解决)
有人下载了solr4.7木有,我加入了
IK分词
之后,没有复杂操作,没有solrj,直接配置的dataimport一张测试表,字段title为默认搜索field,title为“你们去哪儿”,我搜“你们吃了吗
会飞的拉布拉多
·
2014-03-07 18:00
Solr
Lucene4.3开发之插曲之包容万物
lucene的内置分词器,差不多可以完成我们的大部分分词工作了,如果是英文文章那么可以使用StandardAnalyzer标准分词器,WhitespaceAnalyzer空格分词器,对于中文我们则可以选择
IK
heroShane
·
2014-02-21 11:00
Lucene
solr4.6.1配置
ik分词
器
接上篇文章windows+tomcat7安装solr4.6.1下载解压IKAnalyzer2012FF_hf1(下载列表注意ik的版本,支持不同solr版本,此版本支持lucene4/solr4)。拷贝IKAnalyzer2012FF_u1.jar至E:\server\solr\solr_home\collection1\contrib\analysis-extras\lib目录下。修改E:\se
Bingo许
·
2014-02-16 22:00
ik分词器
solr4.6.1
在solr4.x上使用
IK分词
设置useSmart没有效果的解决方案
大家知道由于lucene和solr在最新版本在分词方面改动比较大,在solr4.x上使用
IK分词
,并且设置粗细力度,安装官方的说法是这样设置的:结果发现建索引和查询时候的分词力度是一样的,默认是安装细力度分词
旗舰
·
2013-12-27 11:00
Solr
Lucene
IKAnalyzer
Lucene使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库
方案一: 基于配置的词典扩充项目结构图如下:
IK分词
器还支持通过配置IKAnalyzer.cfg.xml文件来扩充您的专有词典。
fengbin2005
·
2013-11-20 16:00
数据结构
Lucene
Lucene使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库
阅读更多方案一:基于配置的词典扩充项目结构图如下:
IK分词
器还支持通过配置IKAnalyzer.cfg.xml文件来扩充您的专有词典。
fengbin2005
·
2013-11-20 16:00
lucene
数据结构
配置Solr中文分词器IK以及ansj,支持动态修改用户词库。
本文内容和源码都更新在这里:http://mlcsdev.iteye.com/blog/2037109 经常看到不少人问solr的
IK分词
如何配置,如何实现中文动态词库添加这类问题,中文分词看来还是
lgnlgn
·
2013-11-01 16:00
Solr
IKAnalyzer
中文分词
ansj
利用hadoop mapreduce 做数据排序
我们的需求是想统计一个文件中用
IK分词
后每个词出现的次数,然后按照出现的次数降序排列。也就是高频词统计。
zachary124
·
2013-10-11 16:00
mapreduce
排序
hadoop
改写IKAnalyzer分词器
ik4solr4.3solr4.3的
ik分词
器([https://github.com/lgnlgn/ik4solr4.3] 主要改动不是我完成的,只是指点。
songjinbin
·
2013-09-03 17:00
elasticsearch 查询内容精确匹配
俄罗斯空军"+"\"";//q为要查询的数据QueryStringQueryBuilderqueryBuilder=newQueryStringQueryBuilder(q); //analyzer为
ik
endless_uu
·
2013-08-18 08:11
elasticsearch
ikanalyzer for solr4.3(ik4solr4.3)
ik4solr4.3solr4.3的
ik分词
器([https://github.com/lgnlgn/ik4solr4.3] 主要改动不是我完成的,只是指点。
earth3008
·
2013-06-26 15:00
IKAnalyzer
中文分词
solr4.3
solrcloud分词
server视图设定的tomcat内存大小的设定
今天跑一个简单的
IK分词
的程序,估计用不了多大的内存,但是去一直在报尝试了:1,修改eclipse.ini文件2,修改Tomcat/bin/catalina.bat,添加如下内容setJAVA_OPTS
cyxinda
·
2013-05-20 20:49
java
server视图设定的tomcat内存大小的设定
今天跑一个简单的
IK分词
的程序,估计用不了多大的内存,但是去一直在报尝试了:1,修改eclipse.ini文件2,修改Tomcat/bin/catalina.bat,添加如下内容setJAVA_OPTS
cyxinda
·
2013-05-20 20:49
java
Solr环境搭建及
IK分词
的集成及solrJ的调用(三)【完结】
前两篇的连接到这里:Solr环境搭建及
IK分词
的集成及solrJ的调用(一) http://my.oschina.net/zimingforever/blog/120732Solr环境搭建及
IK分词
的集成及
王小明123
·
2013-04-10 22:00
Solr环境搭建及
IK分词
的集成及solrJ的调用(二)
看上一篇请移步到这里:http://my.oschina.net/zimingforever/blog/120732 Solr环境搭建及
IK分词
的集成及solrJ的调用(一)这里首先介绍如何做分词,首先
王小明123
·
2013-04-08 20:00
Solr环境搭建及
IK分词
的集成及solrJ的调用(一)
项目需要,最近在做使用solr进行搜索的项目。solr是一个基于lucene的java开发的搜索服务器,简单点说solr是一个已经完成的war包,直接部署起来即可。solr的安装比较简单,但是第一次使用,安装的时候走了些小弯路,弄了几天才把环境弄好。1下载solr,我这里使用的是3.6的版本,之所以没有用4.2的版本是担心中文分词的支持不好,下载地址http://lucene.apache.org
王小明123
·
2013-04-08 00:00
Luence使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库
Luence使用IKAnalyzer分词实例及IKAnalyzer扩展词库 方案一: 基于配置的词典扩充项目结构图如下:
IK分词
器还支持通过配置IKAnalyzer.cfg.xml文件来扩充您的专有词典
·
2013-04-07 21:00
IKAnalyzer
luence
支持Solr4的IKTokenizerFactory
阅读更多近日公司开始改造旧有的搜索系统,用到solr4,而且本人关注
IK分词
器比较多。发现IK2012对TokenizerFactory不支持,缺乏这个支持的话,有很多自定义配置功能用不上。
henry2009
·
2012-12-26 00:00
Lucene
ikanalyzer
solr4
支持Solr4的IKTokenizerFactory
近日公司开始改造旧有的搜索系统,用到solr4,而且本人关注
IK分词
器比较多。发现IK 2012对TokenizerFactory不支持,缺乏这个支持的话,有很多自定义配置功能用不上。
henry2009
·
2012-12-26 00:00
Lucene
IKAnalyzer
solr4
ElasticSearch的IK安装步骤
windows下elasticsearch安装
IK分词
步骤模拟:>>1:载ik相关配置词典文件到config目录:http://github.com/downloads/medcl/elasticsearch-analysis-ik
an74520
·
2012-11-14 16:18
IK安装步骤
ElasticSearch
ik.jar
ik分词器
ElasticSearch
solr4.0加入中文分词IKanalry
因此
IK分词
器2012FF版本也取消了org.wltea.analyzer.solr.IKTokenizerFactory类。 2:首先在tomcat不是的solr目录下lib中加入:IKAna
iluoxuan
·
2012-11-01 13:00
Solr
上一页
19
20
21
22
23
24
25
26
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他