spark用scala读取hive表数据

spark1.6写法:

    val conf = new SparkConf() 
    val sc = new SparkContext(conf)
    val hiveContext = new HiveContext(sc)

    // 指定hive中使用的数据库;
    hiveContext.sql("use abc_hive_db")
    //执行hive查询
    val rdd = hiveContext.sql("select name,productInfo from pro_table where date>='20170110' ")

spark2.x写法:

val sparkConf = new SparkConf().setAppName("adver").setMaster("local[*]")

val sparkSession = SparkSession.builder().config(sparkConf).enableHiveSupport().getOrCreate()

sparkSession.sql("use abc_hive_db") 

val rdd = sparkSession.sql("select name,productInfo from pro_table where date>='20170110' ")

你可能感兴趣的:(Hive)