背景:其实,我前两年就开始接触过Lucene了,当时是准备把做一个内容管理系统CMS,那么搜索这块就需要使用到Lucene技术了,当时,由于项目经费问题,技术方案确定,项目没有立项,最后没能实现..
前个月,现在的这家公司需要实现有个检索的功能,我当时就想到了Lucene技术, 我就去确认数据量有多大?,检索的范围有多大?精确度等,.才700多条数据,而且还只是检索一个字段...以后数据量会每天的递增,研究Lucene刻不容缓啊..
首先,要非常感谢 博客园的 “觉先”先生的分享, 他的博客带我进入了Lucene的大门 :http://www.cnblogs.com/forfuture1978/category/300665.html ,通过他的博
客对Lucene分析文章,让我对Lucene有个完整的认识,虽然都是简单的认识,但受益匪浅..
我在这就简单的说下,lucene是什么?
Lucene是一个高效的,基于Java的全文检索库。
所以在了解Lucene 之前要费一番工夫了解一下全文检索。
那么什么叫做全文检索呢?这要从我们生活中的数据说起。
我们生活中的数据总体分为两种:结构化数据和非结构化数据。
结构化数据:指具有固定格式或有限长度的数据,如数据库,元数据等。
非结构化数据:指不定长或无固定格式的数据,如邮件,word文档等。
当然有的地方还会提到第三种,半结构化数据,如XML,HTML 等,当根据需要可按结构化数据来处理,也可抽取出纯文本按非结构化数据来处理。非结构化数据又一种叫
法叫全文数据。
按照数据的分类,搜索也分为两种:
对结构化数据的搜索:如对数据库的搜索,用SQL语句。再如对元数据的搜索,如利用windows 搜索对文件名,类型,修改时间进行搜索等。
对非结构化数据的搜索:如利用windows 的搜索也可以搜索文件内容,Linux 下的grep命令,再如用Google 和百度可以搜索大量内容数据。
对非结构化数据也即对全文数据的搜索主要有两种方法:
一种是顺序扫描法(Serial Scanning):所谓顺序扫描,比如要找内容包含某一个字符串的文件,就是一个文档一个文档的看,对于每一个文档,从头看到尾,如果此文档包含此字符串,则此文档为我们要找的文件,接着看下一个文件,直到扫描完所有的文件。如利用windows的搜索也可以搜索文件内容,只是相当的慢。如果你有一个80G 硬盘,如果想在上面找到一个内容包含某字符串的文件,不花他几个小时,怕是做不到。Linux 下的grep 命令也是这一种方式。大家可能觉得这种方法比较原始,但对于小数 据量的文件,这种方法还是最直接,最方便的。但是对于大量的文件,这种方法就很慢了。有人可能会说,对非结构化数据顺序扫描很慢,对结构化数据的搜索却相对较快(由于结构化数据有一定的结构可以采取一定的搜索算法加快速度),那么把我们的非结构化数据想办法弄得有一定结构不就行了吗?
想法很天然,却构成了全文检索的基本思路,也即将非结构化数据中的一部分信息提取出来,重新组织,使其变得有一定结构,然后对此有一定结构的数据进行搜
索,从而达到搜索相对较快的目的。这部分从非结构化数据中提取出的然后重新组织的信息,我们称之索引。这种说法比较抽象,举几个例子就很容易明白,比如字典,字典的
拼音表和部首检字表就相当于字典的索引,对每一个字的解释是非结构化的,如果字典没有音节表和部首检字表,在茫茫辞海中找一个字只能顺序扫描。然而字的某些信息可以
提取出来进行结构化处理,比如读音,就比较结构化,分声母和韵母,分别只有几种可以一一列举,于是将读音拿出来按一定的顺序排列,每一项读音都指向此字的详细解释的
页数。我们搜索时按结构化的拼音搜到读音,然后按其指向的页数,便可找到我们的非结构化数据——也即对字的解释。
首先建立索引,再对索引进行搜索的过程就叫全文检索(Full-text Search)。
下面这幅图来自《Lucene in action》,但却不仅仅描述了Lucene 的检索过程,而是描述了全文检索的一般过程。
全文检索大体分两个过程,索引创建(Indexing)和搜索索引(Search)。
索引创建:将现实世界中所有的结构化和非结构化数据提取信息,创建索引的过程。
搜索索引:就是得到用户的查询请求,搜索创建的索引,然后返回结果的过程
关于 索引里面是什么结构?请看:http://www.cnblogs.com/forfuture1978/category/300665.html 介绍
下面 我们就来实现全文检索demo (本文代码引用的是lucene 3.0.3jar包):
DBDataIndexer 工具类: 是我针对数据库数据来生成索引文件,其实如果是先实现demo,直接看下面一个java代码,
- import java.io.File;
- import java.io.IOException;
-
- import org.apache.lucene.analysis.Analyzer;
- import org.apache.lucene.analysis.standard.StandardAnalyzer;
- import org.apache.lucene.document.Document;
- import org.apache.lucene.document.Field;
- import org.apache.lucene.index.IndexWriter;
- import org.apache.lucene.store.Directory;
- import org.apache.lucene.store.FSDirectory;
- import org.apache.lucene.util.Version;
-
- import com.zte.its.app.lucene.model.ItsCommProblems;
-
-
-
-
-
-
-
- public class DBDataIndexer {
-
- private static String INDEX_DIR = "D://LuceneTest//index";// 索引存放目录
-
- private Directory directory = null;
-
-
-
-
-
-
-
- public Directory initLuceneDirctory() throws Exception {
- if (directory == null) {
- File indexDir = new File(INDEX_DIR);
-
-
-
-
- directory = FSDirectory.open(indexDir);
- }
- return directory;
- };
-
-
-
-
-
-
-
-
-
- public static IndexWriter initLuceneObj(Directory directory, boolean cOra) {
- Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_CURRENT);
- IndexWriter writer = null;
- try {
-
-
- System.out.println(IndexWriter.MaxFieldLength.UNLIMITED);
-
- writer = new IndexWriter(directory, analyzer, cOra,
- IndexWriter.MaxFieldLength.UNLIMITED);
-
-
-
-
- writer.setMergeFactor(100);
-
-
-
- writer.setMaxMergeDocs(1000);
-
-
-
-
- return writer;
- } catch (IOException e) {
- e.printStackTrace();
- } catch (Exception e) {
-
- e.printStackTrace();
- }
- return null;
- }
-
-
-
-
-
-
-
-
- public static void indexEntity(IndexWriter writer, ItsCommProblems e)
- throws IOException {
- if (e == null) {
- return;
- }
- Document doc = new Document();
- doc.add(new Field("requestId", e.getRequestId(), Field.Store.YES,
- Field.Index.NO));
- doc.add(new Field("docid", e.getDocid(), Field.Store.YES,
- Field.Index.NO));
- doc.add(new Field("articleTitle", e.getArticletitle(), Field.Store.YES,
- Field.Index.ANALYZED));
- writer.addDocument(doc);
- }
-
-
-
-
-
-
-
-
- public static int getNumDocs(IndexWriter writer) throws IOException {
- int numIndexed = 0;
- if (writer != null) {
- numIndexed = writer.numDocs();
- }
- return numIndexed;
- }
-
-
-
-
- public static void closeIndexWriter(IndexWriter writer, Directory directory) {
- if (writer != null) {
- try {
- writer.close();
- } catch (IOException e) {
- e.printStackTrace();
- }
- }
- }
-
- }
下面就是检索索引的代码:
- import java.io.IOException;
- import java.util.ArrayList;
- import java.util.List;
-
- import org.apache.lucene.analysis.Analyzer;
- import org.apache.lucene.analysis.standard.StandardAnalyzer;
- import org.apache.lucene.document.Document;
- import org.apache.lucene.index.CorruptIndexException;
- import org.apache.lucene.index.Term;
- import org.apache.lucene.queryParser.MultiFieldQueryParser;
- import org.apache.lucene.queryParser.ParseException;
- import org.apache.lucene.search.BooleanClause;
- import org.apache.lucene.search.BooleanQuery;
- import org.apache.lucene.search.FuzzyQuery;
- import org.apache.lucene.search.IndexSearcher;
- import org.apache.lucene.search.MultiSearcher;
- import org.apache.lucene.search.PrefixQuery;
- import org.apache.lucene.search.Query;
- import org.apache.lucene.search.ScoreDoc;
- import org.apache.lucene.search.TermQuery;
- import org.apache.lucene.search.TopScoreDocCollector;
- import org.apache.lucene.search.WildcardQuery;
- import org.apache.lucene.store.Directory;
- import org.apache.lucene.util.Version;
-
-
-
-
-
- public class Searcher {
-
-
-
- private static String K_FEILD = "articleTitle";
-
- private static int TOP_NUM = 5;
-
-
-
-
-
-
-
- public static List<String> searchIndex(Directory diretory, String keywords)
- throws Exception {
- List<String> requestIdList = new ArrayList<String>();
- if (keywords != null && !"".equals(keywords)) {
- IndexSearcher indexSearcher = null;
- MultiSearcher searcher = null;
-
-
- try {
- indexSearcher = new IndexSearcher(diretory, true);
-
-
- IndexSearcher indexSearchers[] = { indexSearcher };
-
- String[] fields = { K_FEILD };
-
-
-
-
-
-
-
-
-
-
- BooleanClause.Occur[] clauses = { BooleanClause.Occur.SHOULD };
-
-
-
- Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_CURRENT);
-
-
- Query multiFieldQuery = MultiFieldQueryParser.parse(
- Version.LUCENE_CURRENT, keywords, fields, clauses,
- analyzer);
- Query termQuery = new TermQuery(new Term(K_FEILD, keywords));
-
- Query wildqQuery = new WildcardQuery(
- new Term(K_FEILD, keywords));
-
- Query prefixQuery = new PrefixQuery(new Term(K_FEILD, keywords));
-
- Query fuzzyQuery = new FuzzyQuery(new Term(K_FEILD, keywords));
-
-
- searcher = new MultiSearcher(indexSearchers);
-
- BooleanQuery multiQuery = new BooleanQuery();
-
- multiQuery.add(wildqQuery, BooleanClause.Occur.SHOULD);
- multiQuery.add(multiFieldQuery, BooleanClause.Occur.SHOULD);
- multiQuery.add(termQuery, BooleanClause.Occur.SHOULD);
- multiQuery.add(prefixQuery, BooleanClause.Occur.SHOULD);
- multiQuery.add(fuzzyQuery, BooleanClause.Occur.SHOULD);
-
-
- TopScoreDocCollector collector = TopScoreDocCollector.create(
- TOP_NUM, false);
-
- searcher.search(multiQuery, collector);
- ScoreDoc[] hits = collector.topDocs().scoreDocs;
-
- for (int i = 0; i < hits.length; i++) {
-
- Document doc = searcher.doc(hits[i].doc);
-
- requestIdList.add(doc.getField("requestId").stringValue());
-
-
-
- }
- } catch (CorruptIndexException e) {
-
- e.printStackTrace();
- } catch (IOException e) {
-
- e.printStackTrace();
- } catch (ParseException e) {
-
- e.printStackTrace();
- } finally {
- if (searcher != null) {
- try {
-
- searcher.close();
- } catch (IOException e) {
- e.printStackTrace();
- }
- }
- if (indexSearcher != null) {
- try {
- indexSearcher.close();
- } catch (IOException e) {
- e.printStackTrace();
- }
- }
- }
- }
- return requestIdList;
- }
-
- public static void main(String[] args) throws Exception {
-
- }
- }
有个Searcher查询类, 我们就可以根据关键字来查询.. 我这有个main方法 是用来调试使用的。大家可以试试
对了,还少了个调用的代码
- public void initLuceneIndex() throws Exception {
- Map map = new HashMap();
-
- long start = new Date().getTime();
-
- List<ItsCommProblems> list = luceneDao.initLuceneIndex();
-
-
- Directory directory = new DBDataIndexer().initLuceneDirctory();
- if (directory != null) {
-
- IndexWriter writer = DBDataIndexer.initLuceneObj(directory, true);
- if (list != null && list.size() > 0) {
- for (ItsCommProblems object : list) {
- DBDataIndexer.indexEntity(writer, object);
- }
- }
- DBDataIndexer.closeIndexWriter(writer, directory);
- } else {
- throw new IOException(directory
- + " does not exist or is not a directory");
- }
- long end = new Date().getTime();
-
- System.out.println(" InitIndexed: took " + (end - start)
- + " milliseconds");
- }
-
- ublic List<ItsCommProblems> rearcherBykeyWord(String keywords)
- throws Exception {
- Map map = new HashMap();
-
- long start = new Date().getTime();
- List<ItsCommProblems> commProblemList = null;
-
-
- Directory directory = new DBDataIndexer().initLuceneDirctory();
- List<String> requestIdList = Searcher.searchIndex(directory, keywords);
- if (requestIdList != null && requestIdList.size() > 0) {
- map.put("requestIdList", requestIdList);
- commProblemList = luceneDao.rearcherBykeyWord(map);
- }
-
- long end = new Date().getTime();
- System.out.println(" rearcherBykeyWord 《 " + keywords + "》 共花费:"
- + (end - start) + " milliseconds");
- if (commProblemList != null && commProblemList.size() > 0) {
- for (ItsCommProblems itsCommProblems : commProblemList) {
- System.out.println(" 查询获得: "
- + itsCommProblems.getArticletitle());
- }
- }
- return commProblemList;
其实,我这只是完成了简单的检索,很多策略问题,中英文等。都还没来的及实现...Lucene这个技术是很深的.需要花大量时间和精力研究和学习的..
版权声明:本文为博主原创文章,未经博主允许不得转载。