环境利用Spark处理 json 文件至SQL

package Eva.Day_06

import org.apache.spark.sql.SparkSession
/**
* Created by Administrator on 2019/10/22.
*/
//2.0 spark sql统一的入口
object SparkSessionTest {
def main(args: Array[String]): Unit = {

System.setProperty("hadoop.home.dir", "E:\\hadoop-2.6.0-cdh5.15.0")

val ss = SparkSession
.builder()
.appName(" spark 2.0")
.master("local")
.getOrCreate()

//获取 SparkContext
val sc = ss.sparkContext

//获取 SqlContext
val ssc = ss.sqlContext



val df = ss.read.json("D:\\a.json")

df.createTempView("t_person")

ss.sql("select * from t_person").show()

}
}

你可能感兴趣的:(环境利用Spark处理 json 文件至SQL)