安装前需要的条件,使用过hadoop的,基本不需要改什么了:
1、java环境
2、hadoop(HBase基于HDFS)
3、zookeeper(我这里使用独立的zookeeper,因为之前用过已装好,当然亦可以使用HBase管理zookeeper,可以参考上一篇http://blog.csdn.net/smile0198/article/details/17659537)
4、SSH,NTP时间同步
5、系统调优,这个可以等安装完后改,文件打开数(ulimit和nproc)
6、修改Hadoop HDFS Datanode同时处理文件的上限:dfs.datanode.max.xcievers
export HBASE_MANAGES_ZK=false默认应该是true,如果你想让HBase来管理zookeeper,那可以设为true。
<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://master:9099/hbase</value> <description>The directory shared byRegionServers. </description> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.property.clientPort</name> <value>2181</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>haier002,haier003,haier004</value> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/opt/zookeeper-3.4.5/dataDir</value> </property> </configuration>
slave1 slave2 slave3
scp -r hbase-0.94.6 hadoop@slave1:/usr/local/
./start-hbase.sh大功告成,哈哈哈!!
15675 NameNode 18205 HMaster 1264 ASMain 15840 JobTracker 875 ASMain 19017 Jps
./hbase shell输入help可以看命令
create 'testAjl','cf' put 'testAjl','row1','cf:a','value1' put 'testAjl','row2','cf:b','value2' put 'testAjl','row3','cf:c','value3'查看数据
scan 'testAjl' ROW COLUMN+CELL row1 column=cf:a, timestamp=1388327667793, value=value1 row2 column=cf:b, timestamp=1388327866650, value=value2 row3 column=cf:c, timestamp=1388327785678, value=value3 3 row(s) in 0.0630 seconds取某一行数据
get 'testAjl','row1' COLUMN CELL cf:a timestamp=1388327667793, value=value1 1 row(s) in 0.0290 seconds删除表
disable ‘testAjl’
drop 'testAjl'