上一篇博文我们有使用LUKE工具来查看使用solrindex产生的索引的具体内容,从里面可以看到,默认的分词很乱,所以这篇博文我们就使用mmseg4j中文分词器。
点击mmseg4j-1.8.5 .zip,进入下载页面。
将下载的mmseg4j-1.8.5.zip文件放到workspace目录下面,在workspace目录使用如下命令解压到mmseg4j-1.8.5目录:
unzip mmseg4j-1.8.5\ .zip -d mmseg4j-1.8.5
可以从解压过程看到有一个带有词典的分词:
mmseg4j-all-1.8.5-with-dic.jar
在Solr目录下新建一个lib目录,使用命令:
mkdir apache-solr-3.6.2/example/solr/lib
将mmseg4j-1.8.5目录下面的mmseg4j-all-1.8.5-with-dic.jar复制到Solr的lib目录下面,使用如下命令:
cp mmseg4j-1.8.5/mmseg4j-all-1.8.5-with-dic.jar apache-solr-3.6.2/example/solr/lib/
修改schema.xml文件,将文件中的
<tokenizer class="solr.WhitespaceTokenizerFactory" />
和
<tokenizer class="solr.StandardTokenizerFactory" />
替换为:
<tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory" mode="complex" />
使用如下命令:
java -jar start.jar &
切换到Nutch的local目录,使用如下命令:
bin/nutch solrindex http://192.168.238.128:8983/solr data/crawldb -linkdb data/linkdb -dir data/segments
可以看到使用mmseg4j中文分词器得到的分词个数为:33202
而之前使用默认的分词器得到的个数为:80468
默认的分词列表如下:
可以看到,使用mmseg4j的中文分词器得到的分词和默认的情况得到的分词有很大的差别,也更加合理。