E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
MMSeg
Solr 3.5 + Tomcat7 +
mmseg
4j + 搜狗词库 -配置并运行
机器上已安装 : Tomcat 7 jdk1.7 mysql 5.0 访问 http://www.apache.org/dyn/closer.cgi/lucene/solr , 在这个网址里选择一个路径 , 下载 solr 3.5 的版本 solr3.5 在本机解压缩以后 , 把 apache-solr-3.5.0
·
2015-11-13 19:58
tomcat7
Solr DIH以Mysql为数据源批量创建索引
演示使用solr管理后台,以mysql为数据源,批量建索引的方法 测试于:Solr 4.5.1,
mmseg
4j 1.9.1, Jdk 1.6.0_45, Tomcat 6.0.37 | CentOS
·
2015-11-13 13:05
mysql
solr4.5配置中文分词器
mmseg
4j
solr4.x虽然提供了分词器,但不太适合对中文的分词,给大家推荐一个中文分词器
mmseg
4j
mmseg
4j的下载地址:https://code.google.com/p/
mmseg
4j/ 通过以下几步就可以把
·
2015-11-13 13:04
mmseg4j
Lucene自定义同义词分词器
org.apache.lucene.analysis.Analyzer; 6 import org.apache.lucene.analysis.TokenStream; 7 8 import com.chenlb.
mmseg
4j.D
·
2015-11-13 11:05
Lucene
IK,ansj,
mmseg
4j分词性能比较
其主页为:https://code.google.com/p/ik-analyzer/下载ansj最新版本:ansj_seg下载mmesg4j最新版本https://code.google.com/p/
mmseg
4j
m635674608
·
2015-11-12 15:00
关于中文分词
换用StandardAnalyzer,有34%的提高,比較下使用的KAnalyzer,
mmseg
4j1.9.2-snapshot,standardanalyzer,性能分别在1.7M/s,10M/s,20M
·
2015-11-12 10:26
中文分词
使用py
mmseg
进行中文分词
python分词模块,基于
mmseg
算法编写,核心代码c++,提供python接口。 最近在做BUG质量分析的时候,要提取BUG关键词,正好用到的py
mmseg
这分词模块,分词的效率还不错。
·
2015-11-12 10:06
中文分词
说说
MMSeg
分词
并发现一个叫
MMSeg
的中文分词。据官方说法,正确率高达98%点多。 本人嘴拙,请大家看原文:http://www.solol.org/projects/
·
2015-11-11 18:20
MMS
Introduction to
MMSEG
[wiki]
Algorithm a) Matching Algorithm b) Ambiguity Resolution Rules 3.Example Overview
MMSEG
·
2015-11-11 14:00
int
MMSEG
介绍及基于分类的中文分词算法遐想
MMSEG
介绍及基于分类的中文分词算法遐想 最近一直在弄中文分词,学习了不少分词算法,当然其中少不了中科院的分词工具
·
2015-11-11 14:20
中文分词
Solr 3.5 suggest autocomplete
上一步 () , 已经配置好了 Solr3.5 和
mmseg
4j 分词 , 接下来配置 Solr3.5 的 suggest 来实现 autocomplete(搜索自动提示补全功能
·
2015-11-11 13:52
autocomplete
Sphinx+MySQL5.1x+SphinxSE+
mmseg
中文分词
Sphinx+MySQL5.1x+SphinxSE+
mmseg
中文分词 搜索引擎架构搭建 什么是Sphinx Sphinx 是一个在GPLv2 下发布的一个全文检索引擎,一般而言,Sphinx
·
2015-11-11 12:21
sphinx
solr 4.8+mysql数据库数据导入 +
mmseg
4j中文全文索引 配置笔记
转载请标明出处:http://www.cnblogs.com/chlde/p/3768733.html 1.如何将solr部署,请参考之前的文章 2.按上述配置好后,在solr_home文件夹中,将包含collection1文件夹,这就是solr的一个实例。下面我们来看看collection1中的文件内容。 collection1中包含conf和data两个子文件夹。data中包含tlog和
·
2015-11-11 08:04
mmseg4j
自然语言分词工具
比如,最大匹配算法,
mmseg
等。
·
2015-11-11 01:49
工具
elasticsearch 分词器配置注意事项
//插件代码 packageorg.elasticsearch.index.analysis; publicclass
MMseg
AnalysisBinderProcessorextendsAnalysisModule.AnalysisBinderProcessor
m635674608
·
2015-11-09 10:00
中文分词
mmseg
4j 的词库格式
原文出处:http://blog.chenlb.com/2009/04/chinese-segment-
mmseg
4j-dictionary-format.html有个网友email问题词库格式怎么样?
m635674608
·
2015-11-09 10:00
elasticsearch 分词器配置注意事项
//插件代码 packageorg.elasticsearch.index.analysis; publicclass
MMseg
AnalysisBinderProcessorextendsAnalysisModule.AnalysisBinderProcessor
m635674608
·
2015-11-09 02:00
elasticsearch
分词
注意
elasticsearch 1.1.0
mmseg
英文数字分词
elasticsearch1.1.0
mmseg
插件的版本是1.2.2版本。该版本没有解决英文数字分词问题。比如 user123。
m635674608
·
2015-11-08 00:00
中文分词器性能比较
摘要:本篇是本人在Solr的基础上,配置了中文分词器,并对其进行的性能测试总结,具体包括使用
mmseg
4j、IKAnalyzer、Ansj,分别从创建索引效果、创建索引性能、数据搜索效率等方面进行衡量。
m635674608
·
2015-11-07 12:00
php linux sphinx 安装
索引服务器搭建 所需要的软件: python:Python-2.5.tar.bz2
mmseg
:
mmseg
-3.1.tar.tar mysql:mysql-5.0.22.tar.gz
·
2015-11-07 12:10
sphinx
elasticsearch 常用脚本
analyzer=
mmseg
&text=中华人民共和国 http://localhost:9200/zzm/_analyze?
m635674608
·
2015-11-06 00:00
Lucene5学习之使用
MMSeg
4j分词器
MMSeg
4j是一款中文分词器,详细介绍如下: 1、
mmseg
4j用Chih-HaoTsai的
MMSeg
算法(http://technology.chtsai.org/
mmseg
/)实现的中文分词器
m635674608
·
2015-11-06 00:00
布式搜索elasticsearch 中文分词集成
对于索引可能最关系的就是分词了一般对于es来说默认的smartcn 但效果不是很好 一个是ik的,一个是
mmseg
的,下面分别介绍下两者的用法,其实都差不多的,先安装插件,命令行:安装ik插件plugin-installmedcl
m635674608
·
2015-11-05 15:00
elasticsearch 批量入库bulk性能测试
1万条数据 分词器 时间es默认分词器 1秒多ik 60秒左右
mmseg
1秒多ansj
m635674608
·
2015-11-04 22:00
solr4.5安装配置 linux+tomcat6.0+
mmseg
4j-1.9.1分词
首先先介绍下solr的安装配置 solr下载地址 (我这用的solr-4.5.0) 运行环境 JDK 1.5或更高版本 下载地址(Solr 4以上版本,要求JDK 1.6) 我用的JDK1.6 ) 一个java servlet容器,如Tomcat 下载地址 (我用的Tomcat 6,注:JDK1.7 跟Tomcat 7貌似有兼容性问题,记
·
2015-11-03 21:38
mmseg4j
solr 中文分词
mmseg
4j 使用例子
原文出处:http://blog.chenlb.com/2009/04/solr-chinese-segment-
mmseg
4j-use-demo.html
mmseg
4j 第一个版本就可以方便地与
·
2015-11-02 12:54
mmseg4j
python中文分词器py
mmseg
的安装实录
最近在用python做爬虫项目,感受到了python的强大,这期间要试试python的文本处理,要用到中文分词,故把我安装使用py
mmseg
的过程记录下来,作为备忘。
·
2015-11-02 11:27
python
Solr中文分词配置(2)
1、下载分词器:http://code.google.com/p/
mmseg
4j/ 2、将解压后的
mmseg
4j-1.8.2目录下的
mmseg
4j-all
·
2015-11-01 14:45
Solr
solr 中文分词
mmseg
4j 使用例子
mmseg
4j 第一个版本就可以方便地与 solr 集成,在 google code 上面有简单的说明,第一版的发布博客也有简单的使用说明:中文分词
mmseg
4j。
·
2015-11-01 10:15
mmseg4j
solr+
mmseg
4j
mmseg
4j 第一个版本就可以方便地与 solr 集成,在 google code 上面有简单的说明,第一版的发布博客也有简单的使用说明:中文分词
mmseg
4j。
·
2015-11-01 10:10
mmseg4j
linux coreseek-4.1安装
root@qp232 ~]# cd /usr/local [root@qp232 local]# tar -zxvf /yd/lhm/coreseek-4.1-beta.tar.gz 2.解压后进去
mmseg
·
2015-10-31 11:22
coreseek
中文分词
mmseg
4j 在 lucene 中的使用示例
原文出处:http://blog.chenlb.com/2009/04/use-chinese-segment-
mmseg
4j-in-lucene-demo.html
mmseg
4j 发布也有一段时间了
·
2015-10-31 10:36
mmseg4j
让盘古分词支持最新的Lucene.Net 3.0.3
原文: 让盘古分词支持最新的Lucene.Net 3.0.3 好多年没升级过的Lucene.Net最近居然升级了,到了3.0.3后接口发生了很大变化,原来好多分词库都不能用了,所以上次我把
MMSeg
·
2015-10-31 09:57
Lucene
基于
MMSeg
算法的中文分词类库
原文: 基于
MMSeg
算法的中文分词类库 最近在实现基于lucene.net的搜索方案,涉及中文分词,找了很多,最终选择了
MMSeg
4j,但
MMSeg
4j只有Java版,在博客园上找到了*王员外
·
2015-10-31 09:57
中文分词
当前几个主要的Lucene中文分词器的比较
基本介绍: paoding :Lucene中文分词“庖丁解牛” Paoding Analysisimdict :imdict智能词典所采用的智能中文分词程序
mmseg
4j : 用 Chih-Hao Tsai
·
2015-10-30 14:28
Lucene
中文分词
mmseg
4j 在 lucene 中的使用示例
mmseg
4j 发布也有一段时间了,前些日子忙着发布新的版本,修正 bug 之类的。使用示例一直拖到现在,其实 svn 上的 test 有使用 lucene 例子。
·
2015-10-30 13:21
mmseg4j
mmseg
4j 中文分词 1.6 版发布
经过几天的开发与调试,
mmseg
4j 1.6 版可以发布了。1.6 版主要实现与下功能: 实现多分词,在complex基础上,把长的词(大于2)拆出多个词。
·
2015-10-30 13:20
mmseg4j
solr+
mmseg
4j 之二
再发现庖丁的分词过于琐屑,在实际的生产环境中没有
mmseg
4j效果好。 solr的配置就不多说了。
·
2015-10-30 13:13
mmseg4j
solr分词。。。。。
1、开发环境 Mac10.10.4+tomcat6+Java8+solr4.4+
mmseg
4j1.9.12、效果图预览图片1预览图片2
Java_Coder
·
2015-10-29 19:00
solr 中文分词
mmseg
4j 使用例子 ,NGramTokenizerFactory
solr 中文分词
mmseg
4j 使用例子 版权信息: 可以任意转载, 转载时请务必以超链接形式标明文章原文出处, 即下面的声明.
·
2015-10-28 09:39
factory
ZZ
MMSEG
中文分词算法
译者原文地址: http://leeing.org/2009/11/01/
mmseg
-chinese-segmentation-algorithm/ 论文原文地址: http://technology.chtsai.org
·
2015-10-28 08:37
中文分词
关于Solr搜索标点与符号的中文分词你必须知道的(
mmseg
源码改造)
关于Solr搜索标点与符号的中文分词你必须知道的(
mmseg
源码改造) 摘要:在中文搜索中的标点、符号往往也是有语义的,比如我们要搜索“C++”或是“C#”,我们不希望搜索出来的全是“
·
2015-10-28 07:29
Solr
Solr 5.3.0集成
mmseg
4j、tomcat部署、Solrj 5.3.0使用
环境:Jdk1.7 Solr5.3.0 Tomcat7
mmseg
4j-solr-2.3.01、Solr环境搭建1.解压solr5.3.02.新建solr_home,将解压文件中的server
daxiong0615
·
2015-10-24 16:00
Solr
mmseg4j
solrj
5.3
我的最新分词进展和接口设计~
以前写了个关于
MMSEG
实现的,那个写的很烂,本身我也没有实现完全。最近在工作中对原有系统的分词进行了代码重构和算法优化。
·
2015-10-21 12:45
接口
写了一个基于
MMSeg
分词算法的中文分词器(C++)
MMSEG
恐怕是最简单易实现而且效果还可以的基于字典的机械分词算法。http://nzinfo.spaces.live.com/Blog/cns!67694E0B61E3E8D2!
·
2015-10-21 12:43
中文分词器
Coreseek安装测试配置指南
Sphinx--强大的开源全文检索引擎,Coreseek--免费开源的中文全文检索引擎 软件版本:coreseek-4.1
mmseg
-3.2.14 autoconf-2.64 老版本的coreseek
·
2015-10-21 11:29
coreseek
搭建coreseek(sphinx+
mmseg
3)详细安装配置+php之sphinx扩展安装+php调用示例
搭建coreseek(sphinx+
mmseg
3)安装 [第一步] 先安装
mmseg
3 cd /var/install wget http://www.coreseek.cn/uploads
·
2015-10-21 11:28
coreseek
在ubuntu上安装全文搜索中文分词Coreseek/sphinx及和Rails集成
注意:Coreseek 3.2 后,只有安装 Coreseek 就可以了,它对Lib
MMSeg
和sphinx做了整合, 不用再安装原生Sphinx。(3.2前是要安装原生Sphin
·
2015-10-21 11:18
coreseek
中文分词器性能比较
摘要: 本篇是本人在Solr 的基础上,配置了中文分词器, 并对其进行的性能测试总结,具体包括 使用
mmseg
4j、IKAnalyzer、Ansj,分别从创建索引效果
·
2015-10-21 11:15
中文分词器
Solr 5.x的搭建(Solr自带的Jetty Server)与
mmseg
4j中文分词
前言: 如果你对Solr怎么和Tomcat集成以及如何使用
mmseg
4j和自定义的词库丰富完善中文分词,可以参照我的其它与Solr相关的博客。
Josh_Persistence
·
2015-10-17 19:00
中文分词
mmseg4j
solr5
Solr5.x
搜狗词库
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他