【七】Spark SQL命令和Spark shell命令操作hive中的表

1.把hive的配置文件hive-site.xml复制到spark/conf下。

2.启动的时候带上MySQL的连接驱动

Spark-shell命令使用

spark-shell是通过得到sparksession然后调用sql方法执行hive的sql。

cd /app/spark/spark-2.2.0-bin-2.9.0/bin

./spark-shell --master local[3] --jars /app/mysql-connector-java-5.1.46.jar

【七】Spark SQL命令和Spark shell命令操作hive中的表_第1张图片

spark.sql("show tables").show 通过spark-shell查询hive中有哪些表

【七】Spark SQL命令和Spark shell命令操作hive中的表_第2张图片

spark.sql("select * from emp").show通过spark-shell查询hive中的表所有的数据

【七】Spark SQL命令和Spark shell命令操作hive中的表_第3张图片

Spark SQL命令的使用

cd /app/spark/spark-2.2.0-bin-2.9.0/bin

./spark-sql --master local[3] --jars /app/mysql-connector-java-5.1.46.jar

在Spark SQL中可以直接执行SQL操作Hive

查看hive中有哪些表

【七】Spark SQL命令和Spark shell命令操作hive中的表_第4张图片

查看hive的emp表中的数据

spark-sql>select * from emp;

【七】Spark SQL命令和Spark shell命令操作hive中的表_第5张图片

创建一张表到hive中

create table t(key string,value string);

【七】Spark SQL命令和Spark shell命令操作hive中的表_第6张图片

你可能感兴趣的:(spark,SQL,Spark,SQL)