本文有参考厦门大学数据库,表示感谢。 http://dblab.xmu.edu.cn/blog/install-hbase/
HBase是一个分布式的、面向列的开源数据库,源于Google的一篇论文《BigTable:一个结构化数据的分布式存储系统》。HBase以表的形式存储数据,表有行和列组成,列划分为若干个列族/列族(column family)。
欲了解HBase的官方咨询,请访问HBase官方文档http://hbase.apache.org/
HBase的运行有三种模式:单机模式、伪分布模式、分布式模式。
单机模式: 在一台计算机上安装和使用HBase,不涉及数据的分布式存储
伪分布式模式: 在一台计算机上模拟一个小的集群
分布式模式: 使用多台计算机实现物理意义上的分布式存储。
HBase下载地址 : http://archive.apache.org/dist/hbase/stable/
1.解压安装包hbase-1.2.5-bin.tar.gz到路径/usr/local,命令如下:
sudo tar -zxf ~/Downloads/hbase-1.2.5-bin.tar.gz -C /usr/local
2.将解压的文件名hbase-1.2.5改为hbase,以方便使用,命令如下:
cd /usr/local
sudo mv hbase-1.2.5 hbase
3.配置环境变量
将hbase下的bin目录添加到path中,这样启动hbase就无需到/usr/local/hbase目录下,大大的方便了hbase的使用。
编辑完成后,再执行source命令使上述配置在当前终端立即生效,命令如下
source /etc/profile
4.添加HBase权限
cd /usr/local
sudo chown -R hadoop ./hbase #将hbase下的所有文件的所有者改为hadoop,hadoop是当前用户的用户名
5.查看HBase版本,确定hbase安装成功,命令如下:
hbase version
或者
/usr/local/hbase/bin/hbase version
执行命令后,输出信息如下:
看到以上输出信息表示HBase已经安装成功。
HBase有三种运行模式,单机模式,伪分布式模式,分布式模式。
确保 jdk,hadoop,SSH已经安装。
1.配置/usr/local/hbase/conf/hbase-env.sh
* 配置JAVA环境变量
* 添加配置HBASE_MANAGES_ZK为true
用vi命令打开并编辑hbase-env.sh
配置JAVA环境变量,jdk的安装目录默认是 /usr/local/java/jdk1.8.0_131(请自行修改个人的安装目录)
配置HBASE_MANAGES_ZK为true,表示hbase自己管理zookeeper,不需要单独的zookeeper。
hbase-env.sh中本来就存在这些变量的配置,大家只要删除前面的#并修改配置内容即可。
2.配置/usr/local/hbase/conf/hbase-site.xml
vi /usr/local/hbase/conf/hbase-site.xml
在启动HBase前需要设置属性hbase.rootdir,用于指定HBase数据的存储位置,因为如果不设置的话,hbase.rootdir默认为/tmp/hbase-${user.name};这意味着每次重启系统都会丢失数据。此处设置为HBase安装目录下的hbase-tmp文件夹即(/usr/local/hbase/hbase-tmp),添加配置如下:
hbase.rootdir
/usr/local/hbase/hbase-tmp
3.接下来测试运行。首先切换目录至HBase安装目录/usr/local/hbase;再启动HBase。
cd /usr/local/hbase
bin/start-hbase.sh
bin/hbase shell
上述三条命名中,bin/start-hbase.sh用于启动HBase,bin/hbase shell用于打开shell命令行模式,用户可以通过输入shell命令操作HBase数据库
成功启动HBase,截图如下:
停止HBase运行,命令如下
bin/stop-hbase.sh
注意:在单机和伪分布的切换的时候需要把hadoop的单机和伪分布的配置文件一并修改。
1.配置/usr/local/hbase/conf/hbase-env.sh
vi /usr/local/hbase/conf/hbase-env.sh
配置:
* JAVA_HOME
* HBASE_CLASSPATH
* HBASE_MANAGES_ZK
HBASE_CLASSPATH设置为本机Hadoop安装目录下的conf目录(即/usr/local/hadoop/conf)
2.配置/usr/local/hbase/conf/hbase-site.xml
vi /usr/local/hbase/conf/hbase-site.xml
修改hbase.rootdir,指定HBase数据在HDFS上存储路径;将属性hbase.cluster.distributed设置为true。假设当前Hadoop集群运行在伪分布模式下,在本机上运行,且NameNode运行在9000端口。
hbase.rootdir
hdfs://localhost:9000/hbase
hbase.cluster.distributed
true
3.接下来测试运行HBase
(1)首先登陆ssh,之前设置了无密码登录,因此这里不需要密码,在切换目录至/usr/local/hadoop,再启动hadoop。
(如果已经启动hadoop请跳过)
ssh localhost
cd /usr/local/hadoop
./sbin/start-dfs.sh
输入命令jps,能看到NameNode,DataNode和SecondaryNode都已经成功启动,表示hadoop启动成功。
(2)切换到/usr/local/hbase,再启动HBase命令如下
cd /usr/local/hbase
bin/start-hbase.sh
启动成功,输入命令jps,可以看到hbase启动成功。
进入shell界面:
bin/hbase shell
4.停止HBase运行,命令如下
bin/stop-hbase.sh
注意
这里启动关闭Hadoop和HBase的顺序一定是:
启动Hadoop -> 启动HBase -> 关闭HBase -> 关闭Hadoop
HBase中用create命令创建表,具体如下:
create 'student','Sname','Ssex','Sage','Sdept','course'
命令截图:
此时创建了一个”student”表,属性有:Sname,Ssex,Sage,Sdept,course。因为HBase的表中会有一个系统默认的属性作为行健,无需自行创建,默认为put命令操作中表名后第一个数据。创建完”student”表后,可通过describe命令查看”student”表的基本信息
下面主要介绍HBase的增,删,改,查操作。在添加数据时,HBase会自动为添加的数据添加一个时间戳,故在需要修改数据时,只需直接添加数据,HBase即会生成一个新的版本,从而完成”改”操作,旧的版本依旧保留,系统会定时回收垃圾数据,只留下最新的几个版本,保存的版本数可以在创建表的时候指定。
运行命令添加一行数据:
put 'student','95001','Sname','Roc-J'
命令执行表示 在student表添加了学号为95001,名字为LiYing的一行数据,其行健为95001
put 'student','95001','course:math','80'
命令执行:
即在95001行下的course列族的math列添加了一个数据。
在HBase中用delete以及deleteall 命令进行删除数据操作,区别是
* delete用于删除一个数据,是put的反向操作
* deleteall操作用于删除一行数据
1.delete命令
delete 'student','95001','Ssex'
2.deleteall命令
deleteall 'student','95001'
1、get命令
get 'student','9999'
2.scan命令
scan 'student'
命令执行得到的是’student’表的全部数据
删除表有两步,第一步先让该表不可用,第二步删除表
disable 'student'
drop 'student'
查询表的历史版本,需要两步:
1.在创建表的时候,指定保存的版本数(假设指定为5)
create 'employee',{NAME=>'username',VERSION=>5}
2.插入数据然后更新数据,使其产生历史版本数据
注意,这里插入数据和更新数据都是用put命令
put 'employee','88888','username','Roc-J'
put 'employee','88888','username','Roc-J1'
put 'employee','88888','username','Roc-J2'
put 'employee','88888','username','Roc-J3'
put 'employee','88888','username','Roc-J4'
put 'employee','88888','username','Roc-J5'
3.查询时,指定查询的历史版本数。默认会查询出最新的数据。(有效值为1到5)
get 'employee'.'88888',{COLUMN=>'username',VERSIONS=>5}
最后退出数据库操作,输入exit命令即可退出。
注意,这里退出HBase数据库是退出对数据库表的操作,而不是停止启动HBase数据库后台运行。
exit
本实例使用Eclipse编写java程序,来对HBase数据库进行增删改查等操作。
1.启动hadoop,启动HBase
cd /usr/local/hadoop
./sbin/start-dfs.sh
cd /usr/local/hbase
./bin/start-hbase.sh
2.新建java project-HBase_Demo
新建class-HBase_Example
3.在工程中导入外部jar包。
程序代码如下:
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.*;
import org.apache.hadoop.hbase.client.*;
public class HBase_Example {
public static Configuration configuration;
public static Connection connection;
public static Admin admin;
//主函数中的语句请逐句执行
public static void main(String[] args) throws IOException {
//
createTable("Score",new String[]{"sname","course"});
}
//建立链接
public static void init(){
configuration = HBaseConfiguration.create();
configuration.set("hbase.rootdir", "hdfs://localhost:9000/hbase");
try{
connection = ConnectionFactory.createConnection(configuration);
admin = connection.getAdmin();
} catch(IOException e) {
e.printStackTrace();
}
}
//关闭链接
public static void close(){
try {
if(admin!= null) {
admin.close();
}
if(null != connection) {
connection.close();
}
}catch (IOException e) {
e.printStackTrace();
}
}
/**
* 建表,HBase的表中有一个系统默认的属性作为主键,主键无需自行创建,默认为put命令操作中表名后的第一个数据,因此此处无需创建id列
* @param myTableName
* @param colFamily
* @throws IOException
*/
public static void createTable(String myTableName,String[] colFamily) throws IOException {
init();
TableName tableName = TableName.valueOf(myTableName);
if(admin.tableExists(tableName)){
System.out.println("table is exists!");
}else{
HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
for(String str:colFamily){
HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(str);
hTableDescriptor.addFamily(hColumnDescriptor);
}
admin.createTable(hTableDescriptor);
System.out.println("create table success");
}
close();
}
public static void deleteTable(String tableName) throws IOException {
init();
TableName tn = TableName.valueOf(tableName);
if(admin.tableExists(tn)){
admin.disableTable(tn);
admin.deleteTable(tn);
}
close();
}
/**
* 查看已有表
* @throws IOException
*/
public static void listTables() throws IOException {
init();
HTableDescriptor hTableDescriptors[] = admin.listTables();
for(HTableDescriptor hTableDescriptor: hTableDescriptors){
System.out.println(hTableDescriptor.getNameAsString());
}
close();
}
/**
* 向某一行的某一列插入数据
* @param tableName 表名
* @param rowkey 行健
* @param colFamily 列族名
* @param col 列名
* @param val 值
* @throws IOException
*/
public static void insertRow(String tableName,String rowkey,String colFamily,String col,String val) throws IOException {
init();
Table table = connection.getTable(TableName.valueOf(tableName));
Put put = new Put(rowkey.getBytes());
put.addColumn(colFamily.getBytes(), col.getBytes(), val.getBytes());
table.put(put);
table.close();
close();
}
/**
* 删除数据
* @param tableName 表名
* @param rowkey 行键
* @param colFamily 列族名
* @param col
* @throws IOException
*/
public static void deleteRow(String tableName,String rowkey,String colFamily,String col) throws IOException {
init();
Table table = connection.getTable(TableName.valueOf(tableName));
Delete delete = new Delete(rowkey.getBytes());
//删除制定列族的所有数据
//delete.addFamily(colFamily.getBytes());
//删除指定列的数据
//delete.addColumn(colFamily.getBytes(), col.getBytes());
table.delete(delete);
table.close();
close();
}
/**
* 根据行健rowkey查找数据
* @param tableName
* @param rowkey
* @param colFamily
* @param col
* @throws IOException
*/
public static void getData(String tableName,String rowkey,String colFamily,String col) throws IOException {
init();
Table table = connection.getTable(TableName.valueOf(tableName));
Get get = new Get(rowkey.getBytes());
get.addColumn(colFamily.getBytes(), col.getBytes());
Result result = table.get(get);
showCell(result);
table.close();
close();
}
/**
* 格式化输出
* @param result
*/
public static void showCell(Result result) {
Cell[] cells = result.rawCells();
for(Cell cell:cells){
System.out.println("RowName: "+ new String(CellUtil.cloneRow(cell))+"");
System.out.println("Timetamp: " + cell.getTimestamp()+" ");
System.out.println("column Family: "+new String(CellUtil.cloneFamily(cell))+" ");
System.out.println("row Name:" + new String(CellUtil.cloneQualifier(cell))+" ");
System.out.println("value:" + new String(CellUtil.cloneValue(cell))+" ");
}
}
}
主函数中逐句执行,首先执行了一句创建表:
控制台输出:
log4j:WARN No appenders could be found for logger (org.apache.hadoop.security.Groups).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
create table success
可以看到成功创建表
public static void main(String[] args) throws IOException {
//创建一个表,表名为Score,列族为sname,course
//createTable("Score",new String[]{"sname","course"});
//在Score表中插入一条数据,其行健为89899,sname为Rock
//等价于命令:put 'Score','89899','sname','Rock'
//insertRow("Score","89899","sname","","Rock");
//在Score表中插入一条数据,其行健为89899,course:Math为88(course为列族,Math为course下的子列)
//等价于命令:put 'Score','89899','socre:Math','88'
insertRow("Score","89899","course","math","88");
}
主函数中可以进行语句的修改后: