何为solr
solr是java搜索引擎Lucene的更高一层封装,通过webapp服务器实现可视化界面,方便使用人员配置、访问和调用
solr架构解析
以下是solrcloud的架构图,单机模式的solr只是在这个基础上的简化:
SolrCloud:由分布在多个物理主机上的solr节点构成一个统一的solr分布式集群
Solr节点:物理概念,单个的物理主机,对应一个具体的solr服务器
core:物理概念,对应一系列document以及索引,单个solr主机上的core不相同
replica(leader):逻辑概念,每个replica都映射到某一个core,一个core可以有多个分布在不同主机上的replica,通过zookeeper进行选举产生leader
shard:逻辑概念,由多个replica以及一个leader组成集群,一个shard和同一个core的索引一一对应,也就是说shard的多个replica分布在不同的主机上成为core集群
collection:一套完整的倒排索引,一个独立的collection对应一个solrconfig.xml和schema.xml配置文件,可以分为不同的分片(shard),每个shard又由分布在不同主机上的replica组成
单机模式中,一个collection就对应一个core,当然也就没有shard和replica的概念了
solr环境搭建(单机模式)
solr有单机启动模式和集群启动模式,这里仅学习单机模式
启动服务器
在solr的bin文件夹下打开cmd,输入“solr start”即可快速启动solr服务器,默认8983端口,输入localhost:8983/solr/访问这个服务
创建core
core对应数据库中的一张表(或者保存一系列同类数据的容器),其中的元素为document(对应数据库的一行数据),通过命令行方式创建core:
solr create -c solrDemo
建立名为solrDemo的core,在solr界面中就可以查看core
配置分词器
分词器用于将单份document中的数据/文本中的单词进行分隔、整理、语法化并最终生成索引,solr的默认分词器只能对英文分词,中文分词需要配置额外的分词器
配置Lucene默认的中文分词器:
修改solr-7.4.0\server\solr\solrDemo\conf下的managed-schema文件,添加下列配置:
<fieldType name="solr_cnAnalyzer" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
analyzer>
<analyzer type="query">
<tokenizer class="org.apache.lucene.analysis.cn.smart.HMMChineseTokenizerFactory"/>
analyzer>
fieldType>
<field name="solr_cnAnalyzer" type="solr_cnAnalyzer" multiValued="false" indexed="true" stored="true"/>
重启后,在core中的Analysis中测试一下,FieldType选择solr_cnAnalyzer,就可以看到solr可以准确的将输入的查询语句拆分为中文词语
设置字段
为了将数据库/文本中的数据和文本正确映射到core中,需要在core的schema中准确设置与数据库/文本完全对应的字段(field):
设置文本字段:field type选择solr_cnAnalyzer,字段名选择源文件对应的字段名,其他默认
设置数字字段:field type选择ploat或者pint等
特别注意:store和index一定要为true,前者指定数据库字段值存入solr后能够被检索得到,后者指定该字段建立索引
导入数据并创建索引(文本方式)
这里演示通过solrj工具从文本中导入数据到core中
建立实体类:通过实体类为载体将数据映射到core中(类似于orm框架),需要在与字段对应的成员属性上进行@Field注解,便于solr4j工具将属性值映射到core字段:
public class Product {
@Field
int id;
@Field
float price;
@Field
String category;
@Field
String name;
@Field
String place;
@Field
String code;
/*
getter and setter
*/
}
ProductUtil:将文本导入到java程序的工具类:
public class ProductUtil {
//从文本中读入每一行数据,保存为Product对象
public static List<Product> file2List(String fileName){
File file = new File(fileName);
try {
List<Product> productList = new ArrayList<>(147940);
List<String> list = FileUtils.readLines(file, "UTF-8");
for(String s:list){
productList.add(line2Product(s));
}
return productList;
} catch (IOException e) {
e.printStackTrace();
}
return null;
}
public static Product line2Product(String productLine){
Product product = new Product();
String[] fields = productLine.split(",");
product.setId(Integer.parseInt(fields[0]));
product.setName(fields[1]);
product.setCategory(fields[2]);
product.setPrice(Float.parseFloat(fields[3]));
product.setPlace(fields[4]);
product.setCode(fields[5]);
return product;
}
}
SolrUtil:将实体类Product中保存的数据以document的形式导入到core表中,保存为core字段:
public class SolrUtils {
private static SolrClient solrClient;
private static String url;
static {
url = "http://127.0.0.1:8983/solr/solrDemo";
solrClient = new HttpSolrClient.Builder(url).build();//建立solr通讯连接
}
//批量录入数据
public static <T> boolean batchSaveOrUpdate(List<T> entities) throws SolrServerException,IOException{
DocumentObjectBinder binder = new DocumentObjectBinder();
int total = entities.size();
int count = 0;
for(T t:entities){
SolrInputDocument document = binder.toSolrInputDocument(t);
solrClient.add(document);
System.out.printf("一共有%d条记录需要添加,当前添加到%d条记录"+"\n", total, ++count);
}
solrClient.commit();
return true;
}
//录入单个document数据
public static<T> boolean saveOrUpdate(T entity) throws SolrServerException, IOException{
DocumentObjectBinder binder = new DocumentObjectBinder();
SolrInputDocument document = binder.toSolrInputDocument(entity);//将实体类的数据包装为单个document
solrClient.add(document);
solrClient.commit();
return true;
}
}
完成录入后,通过在core中查询:可以查看一共录入了多少条document数据;数据录入后,solr能够对每一段document进行分词、词法和语法解析,并对每一个词生成索引
导入数据并创建索引(数据库方式)
导入数据库需要准备两个jar包,将jar包放到webapp的lib下即可:
mysql-connector-java-5.1.46.jar
solr-dataimporthandler-7.4.0.jar
配置requestHandler:在当前collection的solrconfig.xml中配置
<requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler">
<lst name="defaults">
<str name="config">data-config.xmlstr>
lst>
requestHandler>
配置data-config:新建data-config.xml文档,进行如下配置:
<dataConfig>
<dataSource type="JdbcDataSource"
driver="com.mysql.jdbc.Driver"
url="jdbc:mysql://127.0.0.1:3306/zhihudemo"
user="root"
password="admin"/>
<document>
<entity name="question"
query="select id,title,content from question">
<field column="title" name="question_title"/>
<field column="content" name="question_content"/>
entity>
document>
dataConfig>
其中entity对应数据库实体,如果field不设置的话,solr将查找与column相同名字的solr字段
在core的dataimport中进行导入
solr环境搭建(centos7.4):
centos上solr安装完成后,默认的安装目录为 /opt/solr,配置文件默认存放在 /var/solr 文件夹下面,数据文件(core)在/var/solr/data下面
创建core
进行搜索
通过solrj工具在java工程中搜索文本
分页查询
solr支持分页查询,和关系型数据库类型,通过设置offset和count进行分页查询:
SolrUtils加入以下方法:
public static QueryResponse query(String keyWords, int offset, int count) throws SolrServerException, IOException{
SolrQuery query = new SolrQuery();
query.setStart(offset);
query.setRows(count);
query.setQuery(keyWords);
return solrClient.query(query);
}
keywords为搜索关键词,以“field name : keyword”的方式构成
//获得查询反馈
QueryResponse queryResponse = SolrUtils.query("name:婴儿", 0, 10);
//将反馈结果导出为一张document的List
SolrDocumentList documents = queryResponse.getResults();
//取出document中的数据
for(SolrDocument solrDocument:documents)
Collection<String> fields = solrDocument.getFieldNames();
for(String s:fields){
//根据fieldName从document中取出数据
System.out.print(solrDocument.get(s) + "\t");
}
System.out.println();
}
高亮查询
高亮查询可以将文本中查询到的文字加上类似html的前缀和后缀,便于醒目提示:
在SolrUtils中加入以下方法:
public static void queryHighlight(String keyWords, String fieldName, int offset, int count) throws SolrServerException, IOException{
SolrQuery query = new SolrQuery();
query.setQuery(fieldName + ":" + keyWords);
query.setStart(offset);
query.setRows(count);
//打开高亮提示,设置需要高亮的字段名和前后缀提示符,以及每个分片最大长度(100)
query.setHighlight(true);
query.addHighlightField(fieldName);
query.setHighlightSimplePre("");
query.setHighlightSimplePost("");
query.setHighlightFragsize(100);
//获得查询反馈,将反馈结果以NamedList的形式取出,然后取出高亮查询的结果“highlighting”,遍历显示
QueryResponse queryResponse = solrClient.query(query);
NamedList<Object> response = queryResponse.getResponse();
NamedList<?> highlighting = (NamedList<?>) response.get("highlighting");
for (int i = 0; i < highlighting.size(); i++) {
System.out.println(highlighting.getName(i) + ":" + highlighting.getVal(i));
}
SolrDocumentList results = queryResponse.getResults();
for(SolrDocument result:results){
System.out.println(result.toString());
}
}
删除document
通过id删除某个document:
public static boolean deleteById(String id){
try {
solrClient.deleteById(id);
solrClient.commit();
} catch (Exception e) {
e.printStackTrace();
return false;
}
return true;
}
添加单个document
通过SolrInputDocument向solr添加单个document,记得一定要commit:
public boolean newQuestionIndex(int qid, String title, String content){
SolrInputDocument document = new SolrInputDocument();
document.setField("id", String.valueOf(qid));
document.setField(QUESTION_TITLE_FIELD, title);
document.setField(QUESTION_CONTENT_FIELD, content);
try {
UpdateResponse response = solrClient.add(document);
int status = response.getStatus();
if(status == 0){
logger.info("添加问题:“"+title+"”成功 !");
solrClient.commit();
}else {
logger.info("添加问题:“"+title+"”失败 !");
}
return response != null && status == 0;
} catch (Exception e) {
logger.error("向solr添加document时出错:"+e.getMessage());
e.printStackTrace();
return false;
}
}
origin:https://www.jianshu.com/p/b1b82b242f2d