E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
paoding中文分词器
lucene
中文分词器
mmseg4j用Chih-Hao Tsai 的MMSeg算法实现的
中文分词器
,并实现lucene的analyzer和solr的TokenizerFactory以方便在Lucene和Solr中使用。
hbiao68
·
2014-09-07 17:00
Lucene
Windows下面安装和配置Solr 4.9 支持
中文分词器
阅读更多配置solr4.9自带的
中文分词器
请看这片文章:http://www.cnblogs.com/qiyebao/p/3888181.html配置流行的IKAnalyzer分词器schema.xml
高军威
·
2014-09-01 14:00
IK
Analyzer分词器
分词器
solr4.9
分词配置
中文分词
Windows下面安装和配置Solr 4.9 支持
中文分词器
阅读更多配置solr4.9自带的
中文分词器
请看这片文章:http://www.cnblogs.com/qiyebao/p/3888181.html配置流行的IKAnalyzer分词器schema.xml
高军威
·
2014-09-01 14:00
IK
Analyzer分词器
分词器
solr4.9
分词配置
中文分词
Windows下面安装和配置Solr 4.9 支持
中文分词器
配置solr4.9自带的
中文分词器
请看这片文章:http://www.cnblogs.com/qiyebao/p/3888181.html配置流行的IKAnalyzer分词器schema.xml文件中增加配置
高军威
·
2014-09-01 14:00
分词器
中文分词
IK
Analyzer分词器
分词配置
solr4.9
Java开源项目cws_evaluation:
中文分词器
分词效果评估
cws_evaluation是一个Java开源项目,用于对Java
中文分词器
分词效果进行评估。
杨尚川
·
2014-08-30 23:00
java
开源
中文分词
效果评估
cws_evaluation
lucene4.0与IKAnalyzer的冲突
在网上下载了lucene当前最新版本4.0,以及IKAnalyzer
中文分词器
的完整发布包。
翊骷
·
2014-08-26 10:00
sqlite3自定义分词器
这里我们利用mmseg来构造自定义的
中文分词器
。
xak
·
2014-08-22 11:49
Android开发
当前几个主要的Lucene
中文分词器
的比较
基本介绍:
paoding
:Lucene中文分词“庖丁解牛”
Paoding
Analysisimdict :imdict智能词典所采用的智能中文分词程序mmseg4j : 用 Chih-Hao Tsai
崇尚昆仲
·
2014-07-25 19:00
Lucene
Java课程设计-文档相似性检查系统-字符串中文分词类
在Lucene里面就有
中文分词器
IKAnalyzer Analyzer3.0
中文分词器
需要的JAR如下lucene-analyzers-2.4.1.jar 下载lucene-core-2.4.1.jar
u012442487
·
2014-07-21 14:00
java
编程
代码
hadoop学习【7】——基于hadoop的分布式分词程序
一、使用的分词包——庖丁分词器介绍1.1、简介:庖丁系统是个完全基于lucene的中文分词系统,它就是重新建了一个analyzer,叫做
Paoding
Analyzer,这个analyer的核心任务就是生成一个可以切词
huangbin6
·
2014-07-16 15:00
hadoop
数据挖掘
分布式
HADOOP集群
hadoop中文分词
在本地maven中添加maven中央仓库中没有的jar包
blog.csdn.net/icebergwang/article/details/18898929一 概述 使用疱丁分词器,发现中央仓库中没有
paoding
-analysis
lp895876294
·
2014-05-28 21:00
maven
当前几个主要的Lucene
中文分词器
的比较
基本介绍:
paoding
:Lucene中文分词“庖丁解牛”
Paoding
Analysisimdict:imdict智能词典所采用的智能中文分词程序mmseg4j :用Chih-HaoTsai的MMSeg
haomad
·
2014-05-23 17:56
Google
开发者
版本号
处理器
活跃度
常用中文分词
http://www.oschina.net/p/
paoding
庖丁中文分词库是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件
wbj0110
·
2014-05-14 20:00
分词
常用中文分词
http://www.oschina.net/p/
paoding
庖丁中文分词库是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件
wbj0110
·
2014-05-14 20:00
分词
常用中文分词
http://www.oschina.net/p/
paoding
庖丁中文分词库是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件
wbj0110
·
2014-05-14 20:00
分词
Lucene中文分析器的中文分词准确性和性能比较
分析器依次为:StandardAnalyzer、ChineseAnalyzer、CJKAnalyzer、IK_CAnalyzer、MIK_CAnalyzer、MMAnalyzer(JE分词)、
Paoding
Analyzer
yzyzero
·
2014-05-13 15:00
Lucene
friso官方网站下载及官方信息
friso
中文分词器
Friso是使用c语言开发的一款高性能
中文分词器
,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入到其他程序中,例如:MySQL,PHP等。
hzhsan
·
2014-05-08 07:00
中文分词
friso官方下载
c语言中文分词
Java开源项目cws_evaluation:
中文分词器
分词效果评估
cws_evaluation 是一个Java开源项目,用于对Java
中文分词器
分词效果进行评估。
yangshangchuan
·
2014-05-01 02:00
java
开源
中文分词
效果评估
cws_evaluation
Java开源项目cws_evaluation:
中文分词器
分词效果评估
cws_evaluation 是一个Java开源项目,用于对Java
中文分词器
分词效果进行评估。
yangshangchuan
·
2014-05-01 02:00
java
开源
中文分词
cws_evaluation
效果评估
Java开源项目cws_evaluation:
中文分词器
分词效果评估
cws_evaluation 是一个Java开源项目,用于对Java
中文分词器
分词效果进行评估。
yangshangchuan
·
2014-05-01 02:00
java
开源
中文分词
效果评估
cws_evaluation
Java开源项目cws_evaluation:
中文分词器
分词效果评估
cws_evaluation 是一个Java开源项目,用于对Java
中文分词器
分词效果进行评估。
yangshangchuan
·
2014-05-01 02:00
java
开源
中文分词
效果评估
cws_evaluation
当前几个主要的Lucene
中文分词器
的比较
1.基本介绍:
paoding
:Lucene中文分词“庖丁解牛”
Paoding
Analysisimdict :imdict智能词典所采用的智能中文分词程序mmseg4j :用Chih-HaoTsai的
july_2
·
2014-04-29 17:00
nutch的安装以及
中文分词器
的配置 全部 已经成功了 希望大家找到这个 网上很多不全面
1、解压到cygwin/home/user/nutch下,在里面建立一个urls文件夹,里面新建一个url.txt,里面写着你开始爬取的源网页地址,比如http://www.163.com/ 注意最后的斜杠要加上2、修改nutch\conf\crawl-urlfilter.txt文件,把MY.DOMAIN.NAME字符替换为url.txt内的url的域名,如:+^http://([a-z0-9]
会飞的章鱼
·
2014-04-29 09:00
lucene4.0与IKAnalyzer的冲突
在网上下载了lucene当前最新版本4.0,以及IKAnalyzer
中文分词器
的完整发布包。
chengwenyao18
·
2014-04-24 15:00
jcseg
中文分词器
去除不想要的分词
今天观察我的网站省淘网时,发现好多相关搜索结果,都是关键词“的”的命中。一开始想自己把字符串里的“的”replace掉得了,但是一想,jcseg应该有这个功能吧。翻阅了说明文档后,最终发现,默认的配置文件没有开启自动过滤停止词(其实就是去掉不想要的分词)具体设置:默认的配置文件在jcseg-core-1.9.1.jar包里:jcseg.properties#是否自动过滤停止词(0关闭,1开启)jc
xwater
·
2014-04-17 15:00
搜索引擎
爬虫
Lucene
jcseg
配置solr的schema.xml加入
中文分词器
solr的schema.xml路径: apache-solr-3.5.0\example\solr\conf\schema.xml 1. 首先在<types></types>中加入fieldType。 这里使用mmseg. 在mmseg文件中, 打开readme.txt, 可以看到: [color=blue]5、在 com.chenlb.mmseg4j.
alleni123
·
2014-04-16 21:00
Solr
lucene4.7 分词器(三)
笔者比较推荐的
中文分词器
是IK分
Big-Data
·
2014-04-10 18:00
Solr4.3整合到Tomcat中并添加MMSeg4j
中文分词器
Solr4.3整合到Tomcat中并添加MMSeg4j
中文分词器
1、新建一个文件夹命名为Solr并在里面建两个文件夹分别命名为home和server。
Big-Data
·
2014-04-10 15:00
非sqlite和nigix的开源c项目
friso
中文分词器
Friso是使用c语言开发的一款高性能
中文分词器
,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入到其他程序中,例如:MySQL,PHP等。
·
2014-04-06 21:00
sqlite
Solr4.7.1中配置
中文分词器
1、SmartChineseAnalyzer (1)将lucene-analyzers-smartcn-4.7.1.jar添加到tomcat/webapps/solr/WEB-INF/lib文件中 (2)编辑solr主目录中conf/schema.xml文件,在之间添加如下定义: (3)为了测试,将schema.xml中的type类型改为text_zh (4)测试,启动tomcat,浏览器
小旋风007
·
2014-04-05 15:08
Solr
中文分词器
Solr4.7.1中配置
中文分词器
1、SmartChineseAnalyzer(1)将lucene-analyzers-smartcn-4.7.1.jar添加到tomcat/webapps/solr/WEB-INF/lib文件中(2)编辑solr主目录中conf/schema.xml文件,在之间添加如下定义:(3)为了测试,将schema.xml中的type类型改为text_zh(4)测试,启动tomcat,浏览器访问http:/
手不要乱摸
·
2014-04-05 15:08
solr
中文分词器
Solr
@ManyToMany- annotation关系映射篇(下)
先看TestProduct.javaJava代码 package net.
paoding
.forum.domain; import java.util.ArrayList; import java.util.List
gebitan505
·
2014-03-30 23:00
OneToMany
ManyToOne
主表
主键表
hadoop 中文词频排序 top-k 问题
2、由于是中文分词,所以必须要有一个
中文分词器
,找到了一个java版的apache开源分词
dengjiexian
·
2014-03-22 11:42
hadoop
中文分词
单词
频率统计
top-k
hadoop 中文词频排序 top-k 问题
2、由于是中文分词,所以必须要有一个
中文分词器
,找到了一个java版的ap
dengjiexian123
·
2014-03-22 11:00
java
mapreduce
hadoop
solr4.7
中文分词器
(ik-analyzer)配置
solr本身对中文分词的处理不是太好,所以中文应用很多时候都需要额外加一个
中文分词器
对中文进行分词处理,ik-analyzer就是其中一个不错的
中文分词器
。
clj198606061111
·
2014-03-15 17:00
Solr
ik-analyzer
《solr笔记》Linux下tomcat7+solr-4.7.0+Ik
中文分词器
安装
一、下载solr 实验的版本:4.7.0 下载地址:http://mirrors.hust.edu.cn/apache/lucene/solr/4.7.0/solr-4.7.0.tgz二、部署处理 通过tar命令解压下载的压缩包,得到如下目录结构。 在建立一个solr的home目录,比如建在/data/solrhome,进入上面解压目录/solr-4.7.
燃點
·
2014-03-14 13:00
Solr
solr-4.7.0
安装solr
//localhost:7080/solr/正常访问solr,介绍三种solr/home的配置方式(这里用JNDI方式实现)分别为:基于JNDI、基于当前路径、基于环境变量的方式 第二:实现三种
中文分词器
的安装
kidly1
·
2014-03-10 15:34
localhost
根目录
Lucene4.3开发之第四步之脱胎换骨(四)
笔者比较推荐的
中文分词器
heroShane
·
2014-02-21 10:00
Lucene
lucene4.0与IKAnalyzer的冲突
在网上下载了lucene当前最新版本4.0,以及IKAnalyzer
中文分词器
的完整发布包。
yiluoAK_47
·
2014-02-13 10:00
【文本分类】friso
中文分词器
介绍(c 开源)
一、friso
中文分词器
Friso是使用c语言开发的一款高性能
中文分词器
,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入到其他程序中,例如:MySQL,PHP等。
jiayanhui2877
·
2014-02-12 17:00
maven向本地仓库导入官方仓库没有的jar包
一概述 使用疱丁分词器,发现中央仓库中没有
paoding
-analysis这个jar包,而且如果只是单纯的将从其他处获取的jar包拷贝到本地仓库时不行的,pom文件依然报错,也无法导入到项目的classpath
icebergwang
·
2014-02-02 11:00
maven
Java日文分词器之Kuromoji
捐赠给了ASF之后被内置在Lucene和Solr中,作为默认的日文分词器(默认的
中文分词器
是smartcn)。但他也不依赖Lucene或Solr,可以单独使用。
rensanning
·
2014-01-23 15:00
Java日文分词器之Kuromoji
捐赠给了ASF之后被内置在Lucene和Solr中,作为默认的日文分词器(默认的
中文分词器
是smartcn)。但他也不依赖Lucene或Solr,可以单独使用。
rensanning
·
2014-01-23 15:00
Java日文分词器之Kuromoji
捐赠给了ASF之后被内置在Lucene 和 Solr中,作为默认的日文分词器(默认的
中文分词器
是smartcn)。但他也不依赖Lucene 或 Solr,可以单独使用。
rensanning
·
2014-01-23 15:00
java
Java日文分词器之Kuromoji
捐赠给了ASF之后被内置在Lucene 和 Solr中,作为默认的日文分词器(默认的
中文分词器
是smartcn)。但他也不依赖Lucene 或 Solr,可以单独使用。
rensanning
·
2014-01-23 15:00
java
solr 和
paoding
整合
下载
paoding
-analysis-2.0.4-beta.zip http://code.google.com/
linshow26
·
2014-01-16 22:00
paoding
[置顶] 【Apache Solr系列】使用IKAnalyzer中文分词以及自定义分词字典
分词的项目有包括好几个:smartcn、ictclas4j、IK、jeasy、庖丁、mmseg4j;以上几种分词器各有优缺点,根据不同场景可分可定制和不可定制两种:一种是基于中科院ICTCLAS的隐式马尔科夫HMM算法的
中文分词器
WeiJonathan
·
2014-01-16 15:00
Solr
IKAnalyzer
中文分词器
Apache Solr 实践(一)solr在Tomcat中部署部署及中文分词配置
当时觉得中文分词效果一直不理想,也尝试过几个开元插件,IK,
paoding
...直到去年因项目需要,开始了解Lucen的封装框架Solr,同时实践了中科院分词的Java开元版本imdict-chinese-analyzer
shuaizhuaidym
·
2014-01-15 17:00
apache
IK
中文分词器
简介
在使用solr和luence时,分词是一个很重要的部分,本文将介绍
中文分词器
之一IKIKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
beijing20120926
·
2014-01-11 13:00
算法
搜索
开源项目
全文检索
分词
序列化人人网框架下的DAO?也就是在Spring下序列化DAO的问题(spring+quartz集群下)
人人网框架地址:http://code.google.com/p/
paoding
-rose/ 问题发生: 用Quartz作集群时用JobDataMap传递DAO,提示DAO未序列化,可框架的DAO为接口
·
2014-01-08 20:00
spring
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他