升级前笔记存档
Lucene创建索引:
IndexWriter writer = new IndexWriter(directory, new IndexWriterConfig(Version.LUCENE_35, new StandardAnalyzer(Version.LUCENE_35)));
Document document = null;
for(int i = 0; i < ids.length; i++){
document = new Document();
document.add(new Field("email", emails[i], Field.Store.YES, Field.Index.NOT_ANALYZED));//email也需要存储,但不需要分词,有时候也需要加权
document.add(new Field("content", content[i], Field.Store.NO, Field.Index.ANALYZED));//对于内容,我们不需要存储和加权,但需要分词。
writer.addDocument(document);
}
Lucene查询方式:
IndexSearcher searcher = getSearcher();{
reader = IndexReader.open(FSDirectory.open(new File(dir))); return new IndexSearcher(reader);}
query拼写类型:
Query query = new TermQuery(new Term(field, name));//精确匹配
Query query = new TermRangeQuery(field, start, end, true, true);//最后两个参数表示起始和结尾是开区间还是闭区间,为什么我使用true或者false都无效?都是前闭后开
//这里前后都是闭区间,这里设置最后两个参数却有有效了
Query query = NumericRangeQuery.newIntRange(field, start, end, true, true);
Query query = new PrefixQuery(new Term(field, value));//value的值通过前缀匹配
Query query = new WildcardQuery(new Term(field, value));//通配符搜索,*表示任何字符,?表示一个字符
BooleanQuery query = new BooleanQuery();
//下面的查询表示名字为tom同时内容中有like的索引
//多条件查询
query.add(new TermQuery(new Term("name", "tom")), Occur.MUST);//最后的参数表示条件必须有,如果是MUST_NOT表示必须没有
query.add(new TermQuery(new Term("content", "like")), Occur.MUST);//如果是SHOULD表示可有可无
PhraseQuery query = new PhraseQuery();//比如I like football,我们查询I football则表示中间有一跳(一空),参数值就表示跳数
query.setSlop(1);
query.add(new Term("content", "i"));//注意:这里的参数值要小写,但是也会将大写的查出来
query.add(new Term("content", "football"));
//这里我们看到名字虽然写错了,但是能够查出来,默认可以匹配一个字符出错的情况,这里设置匹配力(相似度)为0.5<=1,距离为2
FuzzyQuery query = new FuzzyQuery(new Term("name", "tome"), 0.5f, 2);
QueryParser parser = new QueryParser(Version.LUCENE_35, "content", new StandardAnalyzer(Version.LUCENE_35));
parser.setDefaultOperator(Operator.AND);//改变默认空格操作符,但是分开写还是或操作符
parser.setAllowLeadingWildcard(true);//开启前缀为通配符的查询,默认关闭,效率较低
query = parser.parse("email:*@sina.com");//这种效率较低,默认是关闭的,但是可以打开
执行query:
最重要的参数为上面的Qeury对象。构造一个Query对象有2种方法:
(1)使用Query的子类创建一个对象。
(2)使用QueryParser.parse()创建一个对象。
TopDocs tds = searcher.search(query, 10);
TopDocstds = searcher.search(query, 50, Sort.INDEXORDER);
//Sort.RELEVANCE按评分排序,new Sort(new SortField("filename", SortField.STRING, true))按照某字段排序,true降序
for(ScoreDoc sd : tds.scoreDocs){
Document doc = searcher.doc(sd.doc);
doc.get("name");
}
分词:
TokenStream通过接收一个StringReader流将需要进行分词的内容读入进来,TokenStream有两个子抽象类Tokenizer和TokenFilter。
Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_35);//标准分词器
TokenStream stream = analyzer.tokenStream("content",new StringReader(str));//这就是一个词汇流
CharTermAttribute cta = stream.addAttribute(CharTermAttribute.class);//相当于一个标记,随着流增加
PositionIncrementAttribute pia = stream.addAttribute(PositionIncrementAttribute.class);//位置标记
while(stream.incrementToken()){
System.out.print("位置增量:"+pia.getPositionIncrement());
System.out.print("单词:[" + cta + "]");
}
查询过滤:
Filter tr = new TermRangeFilter("filename", "json.c", "json.php", true, true);
tr = NumericRangeFilter.newIntRange("size", 10, 100, true, true);
tds = searcher.search(query, tr, 50);
自定义过滤
tds = searcher.search(q, new MyIdFilter(), 100);
删除更新索引
writer.deleteDocuments(new Term("id", "1"));//这里表示删除索引为1的id writer.commit();
writer.updateDocument(new Term("id", "1"), document);
索引类型:
an indexed string field:language can't be tokenized!