Hbase+Solr实现二级索引提供高效查询


接着上一篇介绍协处理器的文章http://qindongliang.iteye.com/blog/2277145,本篇我们来实战一个例子,看下如何使用协处理来给Hbase建立二级索引。

github地址:https://github.com/qindongliang/hbase-increment-index


业务需求:

现有一张Hbase的表,数据量千万级+,而且不断有新的数据插入,或者无效数据删除,每日新增大概几百万数据,现在已经有离线的hive映射hbase
提供离线查询,但是由于性能比较低,且不支持全文检索,所以想提供一种OLAP实时在线分析的查询,并且支持常规的聚合统计和全文检索,性能在秒级别可接受

需求分析:

hbase的目前的二级索引种类非常多,但大多数都不太稳定或成熟,基于Lucene的全文检索服务SolrCloud集群和ElasticSearch集群是二种比较可靠的方案,无论需求
还是性能都能满足,而且支持容错,副本,扩容等功能,但是需要二次开发和定制。


架构拓扑:


Hbase+Solr实现二级索引提供高效查询_第1张图片



技术实现
(1)搭建一套solr或者es集群,并且提前定制好schemal,本例中用的是solr单节点存储索引,
如果不知道怎么搭建solrcloud集群或者elasticsearch集群,请参考博客:
solrcloud集群搭建
http://qindongliang.iteye.com/blog/2275990
elasticsearch集群搭建
http://qindongliang.iteye.com/blog/2250776
(2)开发自定义的协处理器,代码已经在github上开源https://github.com/qindongliang/hbase-increment-index
(3)打包代码成一个main.jar
(4)安装依赖jar给各个Hbase节点,可以拷贝到hbase的lib目录,也可以在hbase.env.sh里面配置CLASSPATH

config-1.2.1.jar
httpclient-4.3.1.jar
httpcore-4.3.jar
httpmime-4.3.1.jar
noggit-0.6.jar
solr-solrj-5.1.0.jar


(5)上传main.jar至HDFS目录
(6)建表:
create 'c', NAME=>'cf'

(7)禁用表 disable 'c'
(8)添加协处理器的jar:

alter 'c', METHOD => 'table_att', 'coprocessor'=>'hdfs:///user/hbase_solr/hbase-increment-index.jar|com.hbase.easy.index.HbaseSolrIndexCoprocesser|1001|'


(8)激活表 enable 'c'
(9)启动solr或者es集群
(9)在hbase shell或者 hbase java client进行put数据,然后等待查看索引里面是否正确添加数据,如果添加失败,查看hbase的regionserver的log,并根据提示解决
(10)卸载一个协处理器  先禁用表,然后执行

alter 'c',METHOD => 'table_att_unset',NAME =>'coprocessor$1'


卸载,完成之后,激活表



异常:
(1)hbase的http-client组件与本例中用的最新的solr的http-client组件版本不一致导致,添加索引报错。
解决办法:
使用solr的
httpclient-4.3.1.jar
httpcore-4.3.jar
替换所有节点hbase/lib下的
低版本的httpclient组件包,即可!




有什么问题 可以扫码关注微信公众号:我是攻城师(woshigcs),在后台留言咨询。
本公众号的内容是有关搜索和大数据技术和互联网等方面内容的分享,也是一个温馨的技术互动交流的小家园

Hbase+Solr实现二级索引提供高效查询_第2张图片

你可能感兴趣的:(hbase,Solr,二级索引)