利用slor实现索引查询

项目里有一个查询模块,就是从特定的ftp站点扫描,然后利用solr来生成索引文件,提供查询下载服务。关于如何搭建和配置solr,参见 http://www.jinsehupan.com/blog/?p=25 和官方的文档,写的很详细。

这里具体讲讲在利用solr开发时需要注意的方面。

项目使用的是spring。项目中有一个solrService类,它主要负责对索引的操作,像新增索引,更新索引和删除失效的索引等。项目需要引入apache-solr-solrj-1.3-dev.jar、apache-solr-common-1.3-dev.jar、apache-solr-1.3-dev.jar三个包。

首先在spring的配置文件里面配置solrService类

<bean id="solrService" class="com.search.SolrService">
        <property name="jdbcDAO" ref="genericJdbcDAO" />
        
        <!-- solrURL -->
        <property name="solrURL" value="http://localhost:8080/solr" />
        <!-- solr检索字段和数据库字段的对应关系,配置主键名,配置SQL -->        
        <property name="sqlConfigMap">
        <map>
            <!--
            key:
                需检索的主表(比如topic、article之类)对应的className
                service监听这些bean的更新事件并作更新索引处理
            value:
                pkBoName:
                    主键在BO中的属性名(如id、userId等)
                sqlPart: 
                    读取数据的SQL语句一部分,as成solr预定义名称
                    注意:WHERE条件最后要包含主键pk,且判断条件(>100之类)用“{SOLR}”代替,由service根据索引产生
                    如:where .... and id{SOLR}
                sqlCount:
                    读取数据的SQL语句对应的count(*)语句,加入这个是为了能分页(分次)取数据
                    注意项同sqlPart说明(判断条件用“{SOLR}”代替)
                pageSize:
                    分页读取时每页(每次)读取的记录条数,根据实际情况调整
                sqlGetpk:
                    读取主键sid的SQL语句,加入这个是为了能同步删除的记录(对比数据表的id和solr存储的sid)
                // solr预定义类型:
                    sid (solr内部唯一标识,sid生成方式为: {"去package的className"_"id"})
                    category (string), author (string), url (string), time (date),
                    title (text与string的区别是text类型有分词), content (text不存储), keyword (text),
                    summary (仅存储不索引 如果没有指定则根据content截断200字符生成), ip (string),
                    size (slong), indextime (date 添加索引时间 默认为NOW)
                    此外支持如下*匹配(有存储有索引)类型:
                        *_i (sint), *_s (string), *_l (slong), *_t (text)
                        *_b (boolean), *_f (float), *_d (double), *_dt (date)
                    及以下*匹配(仅索引不存储)类型:
                        *_ii (sint), *_is (string), *_il (slong), *_it (text)
                        *_ib (boolean), *_if (float), *_id (double), *_idt (date)
                    及以下*匹配(仅存储不索引)类型:
                        *_si (sint), *_ss (string), *_sl (slong)
                        *_sb (boolean), *_sf (float), *_sd (double), *_sdt (date)
            如:
            <entry key="com.wiscom.union.bo.Topic">
                <bean class="com.wiscom.generic.base.search.SqlConfig">
                    <property name="pkBoName" value="id" />
                    <property name="sqlPart">
                        <value>SELECT t.id as sid, t.topic_title as title,
                            u.username as author FROM t_topic t, t_user u
                            WHERE t.userid=u.id AND t.id {SOLR} ORDER BY t.id</value>
                    <property name="sqlCount" value="SELECT count(*) FROM t_topic WHERE id {SOLR}" />
                    <property name="pageSize" value="100" />
                    <property name="sqlGetpk" value="SELECT id as sid FROM t_topic WHERE 1=1" />
                    </property>
                </bean>
            </entry>
            则保存到solr索引时,sid: {Topic_"id"}
            -->
            <entry key="com.wiscom.union.bo.File">
                <bean class="com.wiscom.generic.base.search.SqlConfig">
                    <property name="pkBoName" value="id" />
                    <property name="sqlPart">
                        <value>SELECT f.id as sid,
						  f.file_name as title,
						  f.file_size as "size",
						  f.file_time as time,
						  f.category_id as c_i,
						  ...
						  FROM t_file f, t_site s, t_area a WHERE f.site_id=s.id AND a.id=s.area_id AND f.file_type=0 AND f.id {SOLR} ORDER BY f.id</value>
                    </property>
                    <property name="sqlCount" value="SELECT count(*) FROM t_file WHERE id {SOLR}" />
                    <property name="pageSize" value="1000" /> <!-- 一次最多操作的数目-->
                    <property name="sqlGetpk" value="SELECT id as sid FROM t_file WHERE 1=1 ORDER BY id" />
                </bean>
            </entry>
        </map>
        </property>
    </bean>

 注释已经很详细了。sqlPart部分的as 什么什么,是在solr的配置文件schema.xml做的类型定义。这里需要注意的是solr对这些类型定义别名是区分大小写的,在使用oracle数据库时需要注意这个问题,因为oracle查询得到的列名都是大写的,大小写不一致会导致查询不到结果。

在solrService里以新增index文件为例。首先是要从数据库中得到相应的数据,然后使用SolrInputDocument来生成要提交的doc文档对象。

...
// 生成doc
SolrInputDocument doc = new SolrInputDocument();
doc.addField(fieldName, fieldValue);
docsList.add(doc);
...
// solrURLURL 为URL对象
SolrServer server = new CommonsHttpSolrServer(solrURLURL);
server.add(docsList);
// 提交
server.commit();
...

  solr虽然是基于lucene,但是在处理更新操作时是不同的,lucene没有更新操作,只能先将相应的索引删除,然后再添加新的索引。solr则不需要这么做,如果提交的doc的主键已经存在则会做更新操作,不需要我们自己做什么工作,所以更新操作和新增是一样的。我们的做法是在做ftp爬虫时区分哪些数据是更新的,哪些数据是删除的,然后把它们的主键提交到索引文件里,当solr的程序启动时,根据这些主键来对索引进行相应的操作。

  删除操作方法如下:

server.deleteById(id); //根据索引的主键删除
server.deleteByQuery("sid:SoLRdelPkS@*"); // 根据查询删除
server.commit();

   最后需求注意的问题是中文的查询问题,中文分词可以采用庖丁分词,网上有很多介绍。这里有个问题是在Linux下使用tomcat做容器时,在提交中文时会出现乱码的问题。最终使用的resin才解决了问题 。

 

   在分析查询结果是采用的是SAXReader包。

// url包含有查询条件 如"...?q=hello&start=100&wt=xml"
Document document = saxReader.read(url); 

  然后就可以对document进行分析得到相应的filed。

你可能感兴趣的:(oracle,bean,SQL Server,Solr,Lucene)