sparkSQL 从MySQL数据源 读取数据【demo 程序篇 ReadDataFromMysql】

demo 程序篇

package cn.demo.sql

import org.apache.spark.sql.SQLContext
import org.apache.spark.{SparkConf, SparkContext}

object ReadDataFromMysql {
  def main(args: Array[String]): Unit = {

    // 设置程序入口参数
    val conf = new SparkConf().setAppName("DataFromMysql").setMaster("local")
    val sc = new SparkContext(conf)
    val sqlContext = new SQLContext(sc)

    // 创建数据库链接,加载数据,默认转为df
    val jdbcDF = sqlContext.read.format("jdbc")
      .options(Map("url" -> "jdbc:mysql://192.168.2.181:3306/urldb",
        "driver" -> "com.mysql.jdbc.Driver",
        "dbtable" -> "url_rule",
        "user" -> "root",
        "password" -> "123")).load()

    // df 注册为表,方便sql操作
    jdbcDF.registerTempTable("person")
    sqlContext.sql("select * from person").show()
    sc.stop()
  }
}

 

你可能感兴趣的:(hadoop,大数据技术学习)