低版本 Lucene 笔记

升级前笔记存档

Lucene创建索引:
	IndexWriter writer = new IndexWriter(directory, new IndexWriterConfig(Version.LUCENE_35, new StandardAnalyzer(Version.LUCENE_35)));
	Document document = null;
	for(int i = 0; i < ids.length; i++){
     
		document = new Document();
		document.add(new Field("email", emails[i], Field.Store.YES, Field.Index.NOT_ANALYZED));//email也需要存储,但不需要分词,有时候也需要加权
		document.add(new Field("content", content[i], Field.Store.NO, Field.Index.ANALYZED));//对于内容,我们不需要存储和加权,但需要分词。	
		writer.addDocument(document);
	}
Lucene查询方式:
	IndexSearcher searcher = getSearcher();{
     reader = IndexReader.open(FSDirectory.open(new File(dir))); return new IndexSearcher(reader);}
	query拼写类型:
	Query query = new TermQuery(new Term(field, name));//精确匹配
	Query query = new TermRangeQuery(field, start, end, true, true);//最后两个参数表示起始和结尾是开区间还是闭区间,为什么我使用true或者false都无效?都是前闭后开
	//这里前后都是闭区间,这里设置最后两个参数却有有效了
	Query query = NumericRangeQuery.newIntRange(field, start, end, true, true);
	Query query = new PrefixQuery(new Term(field, value));//value的值通过前缀匹配
	Query query = new WildcardQuery(new Term(field, value));//通配符搜索,*表示任何字符,?表示一个字符
	BooleanQuery query = new BooleanQuery();
		//下面的查询表示名字为tom同时内容中有like的索引
		//多条件查询
		query.add(new TermQuery(new Term("name", "tom")), Occur.MUST);//最后的参数表示条件必须有,如果是MUST_NOT表示必须没有
		query.add(new TermQuery(new Term("content", "like")), Occur.MUST);//如果是SHOULD表示可有可无
	PhraseQuery query = new PhraseQuery();//比如I like football,我们查询I football则表示中间有一跳(一空),参数值就表示跳数
		query.setSlop(1);
		query.add(new Term("content", "i"));//注意:这里的参数值要小写,但是也会将大写的查出来
		query.add(new Term("content", "football"));
	//这里我们看到名字虽然写错了,但是能够查出来,默认可以匹配一个字符出错的情况,这里设置匹配力(相似度)为0.5<=1,距离为2
	FuzzyQuery query = new FuzzyQuery(new Term("name", "tome"), 0.5f, 2);
	QueryParser parser = new QueryParser(Version.LUCENE_35, "content", new StandardAnalyzer(Version.LUCENE_35));
		parser.setDefaultOperator(Operator.AND);//改变默认空格操作符,但是分开写还是或操作符
		parser.setAllowLeadingWildcard(true);//开启前缀为通配符的查询,默认关闭,效率较低
		query = parser.parse("email:*@sina.com");//这种效率较低,默认是关闭的,但是可以打开
执行query:
	最重要的参数为上面的Qeury对象。构造一个Query对象有2种方法:
		(1)使用Query的子类创建一个对象。
		(2)使用QueryParser.parse()创建一个对象。
	TopDocs tds = searcher.search(query, 10);
		TopDocstds = searcher.search(query, 50, Sort.INDEXORDER);
		//Sort.RELEVANCE按评分排序,new Sort(new SortField("filename", SortField.STRING, true))按照某字段排序,true降序
	for(ScoreDoc sd : tds.scoreDocs){
     
		Document doc = searcher.doc(sd.doc);
		doc.get("name");
	}
分词:
	TokenStream通过接收一个StringReader流将需要进行分词的内容读入进来,TokenStream有两个子抽象类Tokenizer和TokenFilter。
	Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_35);//标准分词器
	TokenStream stream = analyzer.tokenStream("content",new StringReader(str));//这就是一个词汇流
	CharTermAttribute cta = stream.addAttribute(CharTermAttribute.class);//相当于一个标记,随着流增加
	PositionIncrementAttribute pia = stream.addAttribute(PositionIncrementAttribute.class);//位置标记
	while(stream.incrementToken()){
     
			System.out.print("位置增量:"+pia.getPositionIncrement());
			System.out.print("单词:[" + cta + "]");
		}
查询过滤:
	Filter tr = new TermRangeFilter("filename", "json.c", "json.php", true, true);
	tr = NumericRangeFilter.newIntRange("size", 10, 100, true, true);
	tds = searcher.search(query, tr, 50);
自定义过滤
	tds = searcher.search(q, new MyIdFilter(), 100);
删除更新索引
	writer.deleteDocuments(new Term("id", "1"));//这里表示删除索引为1的id     writer.commit();
	writer.updateDocument(new Term("id", "1"), document);
索引类型:
an indexed string field:language can't be tokenized!
	



你可能感兴趣的:(低版本 Lucene 笔记)