E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Ik分词器
ES使用
IK分词器
1. 去github下载esIk分词的源码 https://github.com/medcl/elasticsearch-analysis-ik 2.安装maven并编译,这里注意jdk的版本 编译好的lib在target下面,配置在config下面都能直接用 3.将编译好的jar包(elasticsearch-analysis-ik-
tcxiang
·
2015-03-04 18:00
ik分词
IK分词器
原理与原码分析
阅读更多本文链接:http://quentinXXZ.iteye.com/blog/2180215引言做搜索技术的不可能不接触分词器。个人认为为什么搜索引擎无法被数据库所替代的原因主要有两点,一个是在数据量比较大的时候,搜索引擎的查询速度快,第二点在于,搜索引擎能做到比数据库更理解用户。第一点好理解,每当数据库的单个表大了,就是一件头疼的事,还有在较大数据量级的情况下,你让数据库去做模糊查询,那也
quentinXXZ
·
2015-01-26 21:00
分词器
IK
搜索引擎
IK分词器
原理与原码分析
本文链接: http://quentinXXZ.iteye.com/blog/2180215引言 做搜索技术的不可能不接触分词器。个人认为为什么搜索引擎无法被数据库所替代的原因主要有两点,一个是在数据量比较大的时候,搜索引擎的查询速度快,第二点在于,搜索引擎能做到比数据库更理解用户。第一点好理解,每当数据库的单个表大了,就是一件头疼的事,还有在较大数据量级的情况下,你让数据库去做模糊查询,那也
quentinXXZ
·
2015-01-26 21:00
搜索引擎
分词器
IK
IK分词器
原理与原码分析
阅读更多本文链接:http://quentinXXZ.iteye.com/blog/2180215引言做搜索技术的不可能不接触分词器。个人认为为什么搜索引擎无法被数据库所替代的原因主要有两点,一个是在数据量比较大的时候,搜索引擎的查询速度快,第二点在于,搜索引擎能做到比数据库更理解用户。第一点好理解,每当数据库的单个表大了,就是一件头疼的事,还有在较大数据量级的情况下,你让数据库去做模糊查询,那也
quentinXXZ
·
2015-01-26 21:00
分词器
IK
搜索引擎
solr-4.10.3 安装在windows 7 并集成
IK分词器
硬件环境window版本为:windows764位 软件环境JDK版本:1.7.0_17solr版本:4.10.3tomcat版本:tomcat7安装过程步骤一:将下载好的solr-4.10.4.zip解压,解压后拷贝%solrhome%\example\solr该目录下所有文件到C:/solr步骤二:复制%solr%\dist\solr-4.10.3.war到tomcat安装目录下的webapp
wuzhilon88
·
2015-01-13 13:00
Solr
Solr java IKAnalyzer词库
别的什么都不需要进行配置,代码如下 /** *
IK分词器
两种写法 * @author zhouguohui * */ public class test { public
hui_jing_880210
·
2015-01-10 10:00
Solr
中文分词器IK和Paoding技术对比
IK和Paoding的技术介绍一、
Ik分词器
介绍:优点:采用了特有的“正向迭代最细粒度切分算法”,具有60万字/秒的高速处理能力。
Big-Data
·
2014-12-29 13:00
elastciSearch源码分析——集成分词器
阅读更多要把分词器集成到elasticSearch里面,肯定先要弄到
ik分词器
的源码。
yucang52555
·
2014-11-18 16:00
elasticSearch
java开源
ansj分词器
插件集成
Himooc学术生态设想
使用Lucene+
IK分词器
作为搜索引擎。用户可以免费下载电子书预览文件,查看电子书信息。用户也可以付费成为会员,下载无水印的全本电子书。
himooc
·
2014-10-21 20:00
在elasticsearch 的Java客户端使用
IK分词器
的问题解决
前提描述,关于如何在elasticsearch中使用
IK分词器
网上已经有很多资料了,这里不再叙述。下边主要说我遇到的问题和解决办法,以及将来大家可能也会遇到的问题。
achilles12345
·
2014-10-19 00:00
elasticsearch
IK
solr 中文分词器
IK分词器
的配置
这样我们自己加入的分词器才会引到的solr中..
IK分词器
的安装首选要去下载IKAnalyzer的发行包.下载地址:http://ik-analyzer.googl
zhuhongming123
·
2014-10-15 17:00
tomcat
Solr
IKAnalyzer
中文分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词器
为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词器
为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词器
为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词器
为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词器
为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Solr
Lucene
ik分词
lucene和solr的分词器词库如何从数据库加载?
http://qindongliang.iteye.com/blog/2142783 对于中文的搜索来说,词库系统,也是一个比较重要的模块,本篇散仙以
IK分词器
为例子,介绍了如何让分词器从数据库或缓存系统中集中式加载词库
qindongliang1922
·
2014-10-15 15:00
Lucene
Solr
ik分词
solr ik分词
目前
Ik分词器
相对来说是中文分词中用的相对较多的,比较流行的一种分词器了,与solr组合相当完美的一种中文分词器了,其他的庖丁和solr自带的分词器也相对较多,下面我主要说一下我在使用solr
fan0128
·
2014-09-22 22:00
Solr
ik分词
Lucene使用IKAnalyzer中文分词笔记
本文主要讲解IKAnalyzer(以下简称‘IK’)在Lucene中的具体使用,关于Lucene和
IK分词器
的背景及其作用在这里就不再熬述。
Jialy
·
2014-09-02 17:00
Lucene
IKAnalyzer
中文分词
IK分词器
安装
看一篇很不错的关于IK分词的安装的博文,已经测试过了,可以使用一、IK简介 IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开始,IK发展为面向Java的公用分词组件,独立于Lucen
红皮小猪
·
2014-08-04 12:00
ElasticSearch的ik分词插件开发
ik插件,说白了,就是通过封装
ik分词器
,与ElasticSearch对接,让ElasticSearch能够驱动该分词器。那么,具体怎么与ElasticSearch对接呢?
肖慧
·
2014-05-26 09:00
java
elasticsearch
plugin
IK
插件开发
solr4.8安装步骤和配置
IK分词器
Solr4.8安装步骤如下:1.下载solr4.8,到Apache官网下载2.准备一个tomcat,我这边用tomcat73.将下载好的solr4.8解压缩开,将里面的solr-4.8.0\solr-4.8.0\example\webapps\solr.war拷贝到上面的tomcat的webapps目录。4.建立一个solr工作目录,比如D:\solr\home。将\solr-4.8.0\solr
sharkbobo
·
2014-05-05 12:00
Lucene4.3开发之插曲之包容万物
lucene的内置分词器,差不多可以完成我们的大部分分词工作了,如果是英文文章那么可以使用StandardAnalyzer标准分词器,WhitespaceAnalyzer空格分词器,对于中文我们则可以选择
IK
heroShane
·
2014-02-21 11:00
Lucene
solr4.6.1配置
ik分词器
接上篇文章windows+tomcat7安装solr4.6.1下载解压IKAnalyzer2012FF_hf1(下载列表注意ik的版本,支持不同solr版本,此版本支持lucene4/solr4)。拷贝IKAnalyzer2012FF_u1.jar至E:\server\solr\solr_home\collection1\contrib\analysis-extras\lib目录下。修改E:\se
Bingo许
·
2014-02-16 22:00
ik分词器
solr4.6.1
Lucene使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库
方案一: 基于配置的词典扩充项目结构图如下:
IK分词器
还支持通过配置IKAnalyzer.cfg.xml文件来扩充您的专有词典。
fengbin2005
·
2013-11-20 16:00
数据结构
Lucene
Lucene使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库
阅读更多方案一:基于配置的词典扩充项目结构图如下:
IK分词器
还支持通过配置IKAnalyzer.cfg.xml文件来扩充您的专有词典。
fengbin2005
·
2013-11-20 16:00
lucene
数据结构
改写IKAnalyzer分词器
ik4solr4.3solr4.3的
ik分词器
([https://github.com/lgnlgn/ik4solr4.3] 主要改动不是我完成的,只是指点。
songjinbin
·
2013-09-03 17:00
ikanalyzer for solr4.3(ik4solr4.3)
ik4solr4.3solr4.3的
ik分词器
([https://github.com/lgnlgn/ik4solr4.3] 主要改动不是我完成的,只是指点。
earth3008
·
2013-06-26 15:00
IKAnalyzer
中文分词
solr4.3
solrcloud分词
Luence使用IKAnalyzer分词实例 及 IKAnalyzer扩展词库
Luence使用IKAnalyzer分词实例及IKAnalyzer扩展词库 方案一: 基于配置的词典扩充项目结构图如下:
IK分词器
还支持通过配置IKAnalyzer.cfg.xml文件来扩充您的专有词典
·
2013-04-07 21:00
IKAnalyzer
luence
支持Solr4的IKTokenizerFactory
阅读更多近日公司开始改造旧有的搜索系统,用到solr4,而且本人关注
IK分词器
比较多。发现IK2012对TokenizerFactory不支持,缺乏这个支持的话,有很多自定义配置功能用不上。
henry2009
·
2012-12-26 00:00
Lucene
ikanalyzer
solr4
支持Solr4的IKTokenizerFactory
近日公司开始改造旧有的搜索系统,用到solr4,而且本人关注
IK分词器
比较多。发现IK 2012对TokenizerFactory不支持,缺乏这个支持的话,有很多自定义配置功能用不上。
henry2009
·
2012-12-26 00:00
Lucene
IKAnalyzer
solr4
solr4.0加入中文分词IKanalry
因此
IK分词器
2012FF版本也取消了org.wltea.analyzer.solr.IKTokenizerFactory类。 2:首先在tomcat不是的solr目录下lib中加入:IKAna
iluoxuan
·
2012-11-01 13:00
Solr
发布 IK Analyzer 2012 FF 版本
首先感谢大家对
IK分词器
的关注。
林良益
·
2012-10-23 18:00
发布 IK Analyzer 2012 FF 版本
阅读更多首先感谢大家对
IK分词器
的关注。
linliangyi2007
·
2012-10-23 17:00
中文分词
IK
Java
开源
发布 IK Analyzer 2012 FF 版本
首先感谢大家对
IK分词器
的关注。
linliangyi2007
·
2012-10-23 17:00
java
开源
中文分词
IK
发布 IK Analyzer 2012 FF 版本
首先感谢大家对
IK分词器
的关注。
linliangyi2007
·
2012-10-23 17:00
java
开源
中文分词
IK
发布 IK Analyzer 2012 FF 版本
首先感谢大家对
IK分词器
的关注。
linliangyi2007
·
2012-10-23 17:00
java
开源
中文分词
IK
lucene集成IK实现中文分词检索
这里采用
IK分词器
。 IKAnalyzer2012_u5.zip下载地址:http://code.google.com/p/ik-analyzer/downloads/detail?
萝卜丁辣子
·
2012-09-20 15:00
Lucene
分词器
IKAnalyzer
中文分词
IK
IK分词器
的使用lucene
//if(hasNew) //{ //writer.deleteAll(); //} //纠结一个问题,为啥这行不注释就不能正常运行呢 packageJava.se.lucene; importjava.io.File; importjava.io.IOException; importorg.apache.lucene.analysis.Analyzer; importorg.apache.
KarlDoenitz
·
2012-09-15 16:00
String
null
Lucene
search
query
Class
Lucene小练十三(
IK分词器
)
// if(hasNew) // { // writer.deleteAll(); // } //纠结一个问题,为啥这行不注释就不能正常运行呢 package Java.se.lucene; import java.io.File; import java.io.IOException; import org.apache.lucene.analysis.Analyz
smallearth
·
2012-09-15 16:00
Lucene
Lucene3.5例子
原文地址:http://www.juziku.com/sunlightcs/wiki/4205.htmLucene3.5+
IK分词器
的例子,Lucene3.5改动有点大,很多方法都不推荐使用了。
·
2012-06-21 11:00
exception
String
null
Integer
Lucene
query
lucene3+
IK分词器
改造 lucene2.x+paoding
public void createIndex(Article article) throws Exception { // 实例化分词器,使用的是中文分词器 Analyzer analyzer = new IKAnalyzer(); // 指定要保存的文件路径并保存到FSDirectory中 FSDirectory directory = FSDirectory.open
longzhun
·
2012-02-27 21:00
paoding
lucene3+
IK分词器
改造 lucene2.x+paoding
阅读更多publicvoidcreateIndex(Articlearticle)throwsException{//实例化分词器,使用的是中文分词器Analyzeranalyzer=newIKAnalyzer();//指定要保存的文件路径并保存到FSDirectory中FSDirectorydirectory=FSDirectory.open(newFile(URLDecoder.decode(
longzhun
·
2012-02-27 21:00
发布 IK Analyzer 3.2.8 for Lucene3.X
nbsp; 1.优化了英文字符处理,支持如:C++ 等带符号单词输出 2.简化了数词处理,使输出结果更符合用户观感 3.改进了最大词长切分,使输出结果更符合用户观感 4.性能优化,目前
IK
jasonwang168
·
2011-03-07 13:00
算法
F#
Lucene
Gmail
发布 IK Analyzer 3.2.8 for Lucene3.X
IKAnalyzer3.2.8版本修订1.优化了英文字符处理,支持如:C++等带符号单词输出2.简化了数词处理,使输出结果更符合用户观感3.改进了最大词长切分,使输出结果更符合用户观感4.性能优化,目前
IK
linliangyi2007
·
2011-03-04 17:00
lucene
Gmail
Google
算法
F#
发布 IK Analyzer 3.2.8 for Lucene3.X
1.优化了英文字符处理,支持如:C++ 等带符号单词输出 2.简化了数词处理,使输出结果更符合用户观感 3.改进了最大词长切分,使输出结果更符合用户观感 4.性能优化,目前
IK
linliangyi2007
·
2011-03-04 17:00
算法
F#
Google
Lucene
Gmail
发布 IK Analyzer 3.2.8 for Lucene3.X
1.优化了英文字符处理,支持如:C++ 等带符号单词输出 2.简化了数词处理,使输出结果更符合用户观感 3.改进了最大词长切分,使输出结果更符合用户观感 4.性能优化,目前
IK
linliangyi2007
·
2011-03-04 17:00
算法
Google
F#
Lucene
Gmail
发布 IK Analyzer 3.2.8 for Lucene3.X
1.优化了英文字符处理,支持如:C++ 等带符号单词输出 2.简化了数词处理,使输出结果更符合用户观感 3.改进了最大词长切分,使输出结果更符合用户观感 4.性能优化,目前
IK
linliangyi2007
·
2011-03-04 17:00
算法
F#
Google
Lucene
Gmail
4.中文分词
文档中有JE和
IK分词器
的介绍和实例。1. 分词方法l 单字分词l 二分法:把一段文字的每两个相邻的字算作一个词。
jiutao_tang
·
2011-01-16 16:00
算法
优化
String
null
Lucene
全文检索
Lucene对本地文件多目录创建索引
jar包版本说明: lucene 版本2.9(当时是为了和solr1.4一起用,不过换成Lucene3.0的jar包代码是不用修改的)
ik分词器
版本3.1.6(说起来还是solr,高版本的死活配不上去
85600367
·
2010-12-22 17:00
多线程
html
Lucene
Solr
J#
上一页
15
16
17
18
19
20
21
22
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他