基于spark1.4的Spark-Sql

Author: kwu 

基于spark1.4的Spark-Sql,spark1.4.1在7月15刚发布,提供较好sql支持


1、如何启动Spark-Sql

启动脚本如下

[plain]  view plain copy
  1. #!/usr/bin/env bash  
  2. read  -p "enter your username:" user  
  3. read -s -p "enter your password:" pass  
  4.   
  5. sparksql -u jdbc:hive2://bdc:10000 -n $user -p $pass  

运行后,按照提示输入用户名与密码,进入查询终端。

 

 

2、进入Spark-Sql查询,测试如下:

select day,count(*) from ods.tracklog groupby day;

 


hive中运行

select day,count(*) from ods.tracklog groupby day;

 基于spark1.4的Spark-Sql_第1张图片

 

3、查看Spark-Sql监控

http://bdc:4040

 基于spark1.4的Spark-Sql_第2张图片

查看查询计划

 基于spark1.4的Spark-Sql_第3张图片

 

退出登录

!q

 基于spark1.4的Spark-Sql_第4张图片

你可能感兴趣的:(spark)