LuceneContacts

package com.yulong.lucene.core;

import net.teamhot.lucene.ThesaurusAnalyzer;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.cjk.CJKAnalyzer;
import org.apache.lucene.analysis.cn.ChineseAnalyzer;
import org.wltea.analyzer.lucene.IKAnalyzer;




public class LuceneContacts {
// LUCENE跟文件路径
public static String lucene_root_path = "X:/index";
// 临时文件大小
public static int tempsize = 0;
// 临时文件检查时间间隔(分钟)
public static int timesize = 5;
// 优先提取的文档数
public static int topsszie = 100;
// 索引读写池子
// public static LucenePool iwpool = null;
public static LucenePool iwpool = new LucenePool();
// 系统支持的分词系统
public static Analyzer analyzers[] = new Analyzer[4];
static{
analyzers[0] = new CJKAnalyzer();
analyzers[1] = new ThesaurusAnalyzer();//自定义词库包
analyzers[2] = new ChineseAnalyzer();//data/chars.dic 是单字与语料中的频率 data/units.dic 是单字的单位 data/words.dic 是词库文件,一行一词
analyzers[3] = new IKAnalyzer();//data/chars.dic 是单字与语料中的频率 data/units.dic 是单字的单位 data/words.dic 是词库文件,一行一词
}
// WhitespaceAnalyzer:仅仅是去除空格,对字符没有lowcase化,不支持中文
// SimpleAnalyzer:功能强于WhitespaceAnalyzer,将除去letter之外的符号全部过滤掉,并且将所有的字符lowcase化,不支持中文 http://www.itonghui.com
// StopAnalyzer:StopAnalyzer的功能超越了SimpleAnalyzer,在SimpleAnalyzer的基础上 增加了去除StopWords的功能,不支持中文
// StandardAnalyzer:英文的处理能力同于StopAnalyzer.支持中文采用的方法为单字切分. http://www.chinakdd.com
// ChineseAnalyzer:来自于Lucene的sand box.性能类似于StandardAnalyzer,缺点是不支持中英文混和分词.
// CJKAnalyzer:chedong写的CJKAnalyzer的功能在英文处理上的功能和StandardAnalyzer相同但是在汉语的分词上,不能过滤掉标点符号,即使用二元切分

// 当前使用的分词
public static Analyzer analyzer = analyzers[1];


// ============================== 各类文件的路径组成 ======================
// 新闻系统的索引跟路径
public static String lucene_cms_root_path = "cmsLucene/";
// 文章操作记录备份
public static String lucene_cms_logs_path = "cmsLogs/cmshistory";
}

你可能感兴趣的:(Lucene)