Impala基础语法(一)

 1.1 Impala服务组件
1.1.1 Impala Deamon
    该进程运行于集群每个节点的守护进程,是Impala的核心组件,每个节点该进程的名称为 impalad 。
    > ps -ef|grep impalad
      负责读取数据文件;接受来自impala-shell、Hue / JDBC/ODBC的查询请求,与其他节点并行分布式工作,
      并将本节点的查询结果返回给中心协调者节点(建议使用JDBC/ODBC接口以round-robin的方式将每个查询提交的不同节点 impalad上)。
1.1.2 Impala Statestore
        Statestore 搜集集群中 impalad 进程节点的健康状况,并不断的将健康状况结果转发给所有的 impalad 进程节点.
    > ps -ef|grep statestored
      一个 impala 集群只需要一个 statestore 进程节点。 Statestore的目的:在集群故障时对 impalad进程节点同步信息,
1.1.3 Impala Catalog
    当 Impalad 集群中执行SQL 语句会引起元数据变化时,catalog服务负责将这些变化推送到其他 impalad进程节点上。
1.1.1 搜集信息
    hive> analyze table;
    impala> compute stats;  
第四章 SQL语句
2.1 注释 --  /* .. */
2.2 数据类型
    BIGINT、BOOLEAN、FLOAT、INT、REAL(DOUBLE)、
    SMALLINT、2字节的整型; TINTYNT、1字节的整型、  
    STRING、不能直接将STRING转成BOOLEAN,但是可以使用CASE表达式针对不同的STRING数据返回TRUE/FALSE
            > select cast("123" as int);//返回123
            > select cast(true as int);//返回1
            > select cast(false as int);//返回0
    TIMESTAMP、> select cast('1966-07-30' as timestamp);、、返回1966-07-30 00:00:00、 Now()  
2.2.1 表达式 where * BETWEEN 上限值 AND 下限值;
    IN、> select * from test where a in("a","abc");//传入的值(a) 只要与期中的任意一个值匹配,就会返回RURE。//返回a abc
    IS NULL、> select * from test where a is not null;//判断给定的值是否为空
    LIKE、> select * from test where a like 'ab_'; //比较string数据,_匹配单个字符,%匹配多个字符。
    REGEXP/reglike、> select * from test where a regexp 'a.*'; //用来检查一个值是否与一个正则表达式相匹配.、、返回a ab abc
2.5 AS 别名 ; 原始的名后紧跟别名也可以; 可为表、列、join结果集等指定更直观的别名
2.5.2 标识符,大小写不敏感   
2.6 SQL语句子集--DDL数据定义语言
       2.6.1> alter table old_name rename to new_name;  
        //通过在表名前指定数据库,可以把一张表从一个数据库 移动 到另一个数据库。
        > creat database d1;
        > creat database d2;
        > creat database d3;
        > use d1;
        > creat table mobile(x int);  
        > use d2;
        > alter table d1.mobile rename to mobile;
        > use d1 ;
        > alter table d2.mobile rename to d3.mobile;
        > use d3;
        > show tables;  //出现了mobile表
    > alter table ** set location 'hdfs_path_directory'; //改变 Impala的表对应的数据文件的物理位置
    > alter table ** set fileformat {...}; //改变底层数据文件格式
    > alter table ** set serdeproperties ('serialization.format' = ',' , 'field.delim' = ','); //改变已存在的表/分区的分隔符
    $ hdfs dfs -ls /user/hive/warehouse/表名     
    $ hdfs dfs -cat /user/hive/warehouse/表名/****.0   //查看表内容
        > alter table ** add columns (defs_column);   //可以一次添加多个列
        > alter table ** replace columns (defs_column);  //定义新的列
        > alter table ** change  old_col  new_col  new_spec; //重命名列  
        > alter table ** drop * ;                        //只能一次删除一列
   只有针对分区表才能进行添加或者删除分区操作。
2.6.2 ALTER VIEW
    只改变元数据信息  
    > creat table t2 like t1;
    > creat view v1 as select ...
    > desc formatted v1;  
2.6.3 compute stats
    > show table/cloumn stats **; //在运行 compute stats ** ;之后,show stats 可以显示更多的信息
2.6.4 creat database
2.6.5 creat function
   UDF:每次对单行调用返回一行的标量自定义函数。
   UDA:对多行进行调用返回单行结果,用户自定义聚集函数。
   通常,UDA与group by 结合将一个很大的结果集聚合成一个很小的结果集,甚至整个表进行值汇总得到一行记录。
    > creat aggregate funtion [if not exists] [db_name.] *** ( , , ,); //aggregate创建UDA
2.6.6 creat table
    外部表:删除时,不会删除数据文件。
    partitioned by 子句将一句一列或多列的值将数据文件分开存放。
    stored as 子句指定底层存储的数据文件的格式。
    escaped by 选择一个从未出现过的字符作为转义字符,并把它放在字段内分隔符实例之前。如使用\ : > .. escaped by '\\'  
    > creat table t2 like t1 stored as parquet; //克隆表
    tblproperties: 指定元数据的属性。
    with serdeproperties: 指定键值对,来指定表的 SerDe 属性。
2.6.11 删除表  
2.6.13  
    > explain ...; 返回一个语句的执行计划
    compute stats *;执行分析之后,explain能够显示为优化查询提供帮助的更为详细的信息。
    并发考虑:
        insert into 如果插入失败,插入期间数据被临时存放的数据文件和子目录不会被删除,需要使用 hdfs dfs -rm -r 跟工作目录的全目录删除。
    > insert overwrite t1 values(,,,),(,,,); 可以将带有具体列值得行插入到表中。值需与表定义的列顺序相同,对于不想插入数据的列,指定NULL。
2.6.14 invalidate metadata 比 refresh 成本更高。
    invalidate metadata 会强制元数据过期,这样下次表被引用时元数据会重新加载。对于一个超大表 invalidate metadata 将会消耗大量的时间。
    refresh 可能可以避免不可预知的延迟。
    describe 会更新该表最新元数据信息,也会避免下次查询由于重新加载元数据带来的延迟。  
     运行impalad-shell时 -r  :会刷新元数据信息保持最新。多分区 大表不介意使用。-refresh_after_connect
2.6.16 移动数据文件
    > load data inpath '/.../..' [overwrite] into table t1; // '移动数据文件' 不是拷贝哟,目前只支持从HDFS中加载数据。
    加载一个目录下所有数据文件时,需要保证数据文件位于该目录之下,而不是嵌套的子目录下。
    shell脚本生成几个包含数字串的文件,将文件上传到HDFS上。  
    > creat table t1 (s string);
    > load data inpath '/dir/thousand_strings.txt' into table t1;
    > load data inpath '/dir/thousand_strings.txt' into table t1; //报错!因为文件已经不存在了
    $ hdfs dfs -ls /user/hive/warehouse/.../t1
 
2.6.18 SELECT
    1.SQL-92 风格JOIN:查询中显示指定jion 关键字,使用 on 或 using 指定哪些列作为连接键。
        > select t1.c1, t2.c2 from t1 JOIN t2
               ON t1.id = t2.id and t1.type = t2.type  /*该句或者*/   USING (id, type)
                  where t1.c1 > 100;   //USING (id, type)用于各表关联列具有相同名称的情况。
    2.SQL-89 风格JOIN: 用逗号分隔用到的表,用 where 条件关联列进行等值比较。
                        易使用,也很容易由于删除某些 where子句导致连接无法工作。
        > select t1.c1, t2.c2 from t1, t2
               WHERE t1.id = t2.id and t1.type = t2.type
                  AND t1.c1 > 100;
    1.自连接
            对某张表 不同列 进行关联查询 以展示数据之间的父子关系或树形结构。  
            无需显式指定自连接关键字,只要对 一张表 指定不同的 别名,看作两张表即可。
        > select t1.id, t2.parent, t1.c1, t2.c2 from a t1,a t2
          where t1.id = t2.parent;                                   // 不能理解
    2.笛卡尔连接
            不能用于 ON子句,和:
                            > select ... from t1 JOIN t2;
                            > select ... from t1, t2;
            只用于 CROSS JOIN,或可以用 where子句进行过滤:
                            > select ... from t1 CROSS JOIN t2;
                            > select ... from t1 CROSS JOIN t2 WHERE ...;
    5.内连接
            是最常用的类型,结果集包含所有参与连接的表中匹配的列,这些列具有满足在不同表之间关联列的等值匹配。
            如果参与连接的表具有相同的列名,则需要使用完全限定名 或者列别名进行引用。支持SQL-89/92。  
        > select t1.id, c1,c2 from t1,t2 WHERE t1.id = t2.id;
        > select t1.id, c1,c2 from t1 JOIN t2 ON t1.id = t2.id;
        > select t1.id, c1,c2 from t1 INNER JOIN t2 ON t1.id = t2.id;
    6.外连接 ..OUTER join
            从左手型表(LEFT),右手型表(RIGHT),全外连接表(FULL) 获取所有的 行数据
            如果外连接的表中没有与其他表关联匹配的数据,结果集中相关列会被置为 NULL。
            用的是 SQL-92语法,(join不能用逗号代替),不支持 SQL-89的连接语法。
        > select * from t1 LEFT OUTER JOIN t2 on t1.id = t2.id;
        > select * from t1 RIGHT OUTER JOIN t2 on t1.id = t2.id;
        > select * from t1 FULL OUTER JOIN t2 on t1.id = t2.id;
    7.等值连接和非等值连接
            Impala默认进行等值连接查询。inner outer full semi 都是。
            可以使用比较运算符实现 非等值连接,可以避免产生超出资源限制的超大结果集。
            如果执行的 非等值链接产生的结果集大小可以接受,可使用 cross join ,并且在 where子句中进行额外的比较操作。  
        > select .. from t1 CROSS JOIN t2 WHERE t1.total > t2.maximum_price;
    8.Impala不支持自然连接和反连接
    9.在如下情况使用连接查询:
      。当需要从不同物理上独立存储的表进行关联获取数据时。
      。将数据归一化,连接查询允许我们减少数据复制,将不同的数据存储在不同的表中。
      。对于那些很少使用的某些列,我们可以将其移动到其他表中以减少大部分查询的负载。
      。减少歧义on where中
        > select t1.c1 as first_id, t2.c2 as second_id from t1 join t2 on first_id = second_id;
        > select fact.custno, dimension.custno from customer_data as fact join customer_address as dimension using (custno);
    10.order by 排序
        这是一个代价非常高的操作,因为在排序之前,整个结果集需要传输到一个节点上进行排序,需要更多的内存容量。
        order by .. [ASC | DESC] [NULLS FIRST | NULLS LAST]  指定升序/降序,null值位于结果集开头还是结尾。
        Impala-shell中对一个会话所有的查询设置默认limit:
                                                        > set DEFAULT_ORDER_BY_LIMIT=...
        也可以在启动Inpala进程时指定
            -default_query_options default_order_by_limit=...在实例级别进行限制。
    11.group by
        需要使用像 count()、sun()、avg()、min()、max()这样的聚集函数。
        > select **,sum(s1) as s from *** group by ***  
           order by sum(s1) desc limit 5;
    12.having
        对带有group by 子句的select查询执行过滤操作,它过滤的是 聚集函数运算的结果,而不是原始数据的行。
        > select ss_item as item,
            count(ss_item) as time_p,
            sum(ss_11) as **,
          from **
            group by ss_item     //用的是原始数据
            having item >= 100   //用的是别名
            order by sum(ss_11)  //用的是原始数据
            limit 5;
    13.offset
        查询自逻辑第一行之后的某行开始返回结果。经常结合order by 、limit一起使用。
        > select x from numbers order by x limit 5 offset 5; //从5开始对缓存的结果集进行分页显示在页面上
    14.union
        合并多个查询结果集。就好像是使用了 distinct一样。
        > select**1  union [distinct | all]  select**2     //去重. 不使用all的union耗更多内存和时间。
    15.with
        放在 select之前,用于为 复杂表达式定义一个别名。
        方便维护、可读性强、提高兼容性。
        > with t1 as (select 1), t2 as (select 2)  
            select * from t1 union all select * from t2;
    16.hints
        可以更好的从底层调整SQL查询的工作方式。
        对于那些丢失了统计信息或者其他因素导致查询成本异常昂贵时,作为临时解决方案。
        使用【】将特定的hints括起来使用。
        explain可以确认一个特定查询使用了什么关联策略。
        [shuffle]:join使用分区技术,该方式对于处理 大表与大表之间的关联非常有效。
        [broadcast]:join使用广播技术,将右手型表的所有内容发送到与之关联的所有节点上。对于处理 大表与小表 之间的关联非常有效。
        > select ... from d1  join [broadcast]d2 on ..=..;
    17.show..; use..;
        > show databases like 'd*';
        > show tables in default 't*';
        > show functions in **; //显示的是UDFs, 查看内嵌函数的定义
        > show aggregate functions in **; //UDAFs
        > show table/column stats db.tb; //对于调整和诊断性能,大表和复杂连接查询非常重要
        启动impala-shell时连接到特定数据库:
            impala-shell -d db_name   //-d 选项对于运行SQL脚本非常有用,使用之后无需把USE语句硬编码在SQL脚本中。

2.7 内嵌函数
    聚集函数不会返回Null值,会忽略掉列中null值。
    cast(10 as string) 类型转换
    concat('123', cast(45 as string), '6') 字符串连接
    case a when b then c [when d then e].. end  将表达式与多个可能进行比较,如果匹配到则返回相应结果。
    pid()返回会话连接到的impala进程ID。
    user()返回连接到impala进程的Linux用户名。
    current_database()返回当前数据库名称。
    version()...

Impala 表指向已存的数据文件


DROP TABLE IF EXISTS tab1;
-- EXTERNAL子句表示数据位于 Impala 数据文件中央位置之外
-- 并且 Impala 中表删除后,原始数据文件仍然存在
-- 我们假定 LOCATION 子句中指定的目录是存在的
CREATE EXTERNAL TABLE tab1
(
   id INT,
   col_1 BOOLEAN,
   col_2 DOUBLE,
   col_3 TIMESTAMP
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
LOCATION '/user/cloudera/sample_data/tab1';

DROP TABLE IF EXISTS tab2;
-- TAB2 同 TAB1 一样都是外部表
CREATE EXTERNAL TABLE tab2
(
   id INT,
   col_1 BOOLEAN,
   col_2 DOUBLE
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
LOCATION '/user/cloudera/sample_data/tab2';

DROP TABLE IF EXISTS tab3;
-- 不使用 EXTERNAL 子句表示数据统一由 Impala 管理
-- 这里不再在创建表时候读取已存在的数据文件,而是创建表之后再载入数据
CREATE TABLE tab3
(
   id INT,
   col_1 BOOLEAN,
   col_2 DOUBLE,
   month INT,
   day INT
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';

将外部分区表指向 HDFS 目录结构

    建立 文件

$ hdfs dfs -mkdir -p /user/impala/data/external_partitions/year=2013/month=08/day=01/host=host1
$ hdfs dfs -mkdir -p /user/impala/data/external_partitions/year=2013/month=07/day=28/host=host1
$ hdfs dfs -mkdir -p /user/impala/data/external_partitions/year=2013/month=07/day=28/host=host2
$ hdfs dfs -mkdir -p /user/impala/data/external_partitions/year=2013/month=07/day=29/host=host1
$ hdfs dfs -put dummy_log_data /user/impala/data/logs/year=2013/month=07/day=28/host=host1
$ hdfs dfs -put dummy_log_data /user/impala/data/logs/year=2013/month=07/day=28/host=host2
$ hdfs dfs -put dummy_log_data /user/impala/data/logs/year=2013/month=07/day=29/host=host1
$ hdfs dfs -put dummy_log_data /user/impala/data/logs/year=2013/month=08/day=01/host=host1
 

生成外部表

create external table logs (field1 string, field2 string, field3 string)
  partitioned by (year string, month string, day string, host string)
  row format delimited fields terminated by ','
  location '/user/impala/data/logs';

 ALTER TABLE 语句标识每一个分区。

alter table logs add partition (year="2013",month="07",day="28",host="host1")
alter table logs add partition (year="2013",month="07",day="28",host="host2");
alter table logs add partition (year="2013",month="07",day="29",host="host1");
alter table logs add partition (year="2013",month="08",day="01",host="host1");






   
 


你可能感兴趣的:(Impala)