1、进入hive数据库:hive
2、查看hive中的所有数据库:show databases;
3、用default数据库:use default;
4、查看所有的表:show tables;
5、查询表结构:desc mytest(表名);
6、查询表数据: select * from mytest(表名);
7、创建数据库:hive> CREATE SCHEMA userdb;
8、验证数据库表:hive> SHOW DATABASES;
9、删除数据库:hive> DROP DATABASE IF EXISTS userdb;
hive> DROP SCHEMA userdb;
全部删除相应的表在删除数据库之前:hive> DROP DATABASE IF EXISTS userdb CASCADE;
10、创建表employee
hive> create table if not exists employee (eid int,name String,salary String,destination String)
> comment 'employee details'
> ROW FORMAT DELIMITED
> FIELDS TERMINATED BY '\t'
> LINES TERMINATED BY '\n'
> STORED AS TEXTFILE;
如果增加分区必须在创建表的时候就创建分区,不然就会报错,创建分区的命令>partition by ‘根据哪个字段分区’,
hive> create table employee (id int, name String, dept String)
> PARTITIONED BY (year int)
> ROW FORMAT delimited
> fields terminated by '\t'
> lines terminated by '\n'
> stored as textfile;
stored as textfile文件格式,文件格式在hive中有三种: textfile、Sequencefile(序列化文件,学hadoop的都会知道啦)、Rcfile。
11、添加数据到表中
hive> LOAD DATA LOCAL INPATH '/usr/hadoop/hive/sample.txt'
> OVERWRITE INTO TABLE employee;
如果table是个分区表则必须在hql中指定分区
hive> LOAD DATA LOCAL INPATH '/usr/hadoop/hive/sample.txt'
> OVERWRITE INTO TABLE employee partition(year=2012);(虽然已经实现了分区,但还未明白为什么分区后所有的数据都根据分区条件发生变化)
LOAD DATA:加载数据; LOCAL:本地数据 INPATH:文件的地址 OVERWRITE:覆盖表中的数据 加overwrite是重写表的数据,不加是追加数据
插入表数据:insert into employee(eid,name) values (1208,'jack');hive只支持插入不支持修改和删除
12、重命名表名: hive> ALTER TABLE employee RENAME TO emp;
13、修改emp表中字段name为ename: hive> ALTER TABLE emp CHANGE name ename String;
14、修改emp表中字段salary的数据类型从float改为double:hive> ALTER TABLE emp CHANGE salary salary Double;
15、删除表;hive> drop table test;
16、创建视图
hive> create view empview as
> select * from emp where salary>40000;
17、不同类型的连接 JOIN 、LEFT OUTER JOIN、RIGHT OUTER JOIN、FULL OUTER JOIN
18、创建外部表:用external关键字
hive> create external table outsidetable(name string comment 'name value',addr string comment 'addr value');
查询表信息:desc formatted outsidetable;