spark Sql, dataframe, Dataset 和 Streaming编程指南

四:spark Sql, dataframe, Dataset

4.1:Spark SQL 的用法之一是执行 SQL 查询, 它也可以从现有的 Hive 中读取数据

SparkSession: Spark 中所有功能的入口是 SparkSession 类

from pyspark.sql import SparkSession

spark = SparkSession.builder.appName("Python Spark SQL basic example").config("spark.some.config.option", "some-value").getOrCreate()

4.2: Dataset 和 DataFrame

Dataset 是一个分布式数据集,它是 Spark 1.6 版本中新增的一个接口, 它结合了 RDD(强类型,可以使用强大的 lambda 表达式函数) 和 Spark SQL 的优化执行引擎的好处。Dataset 可以从 JVM 对象构造得到,随后可以使用函数式的变换(map,flatMap,filter 等) 进行操作

DataFrame 是按命名列方式组织的一个 Dataset。从概念上来讲,它等同于关系型数据库中的一张表或者 R 和 Python 中的一个 data frame, 只不过在底层进行了更多的优化。DataFrame 可以从很多数据源构造得到,比如:结构化的数据文件,Hive 表,外部数据库或现有的 RDD

4.3:同过spark读取的文件是dataframe:

    df = spark.read.json('./dense_report.json') 都json文件

    df.show()

    df.select('summary').show()

    df.select(df['options'], df['summary']).show()

    df.filter(df['summary']>20).show()

    Count people by age 按年龄计算人数

    df.groupBy('summary').count().show()

4.4:如何需要运用sql:

    df.createOrReplaceTempView("people")

    sqldf = spark.sql('select * from people')

或者:

    df.createGlobalTempView("people")

    spark.newSession().sql('select * from global_temp.people').show()

sqldf.show()

4.5如果读取的是txt文件:

    sc = SparkContext('local', 'sql app')

    lines = sc.textFile('data.txt')

    parts = lines.map(lambda l: l.split(','))

    people = parts.map(lambda p: Row(name=p[1], age=p[6]))

    spark = SparkSession(sc)

    schemaPeople = spark.createDataFrame(people)

    schemaPeople.createOrReplaceTempView("people")

    # schemaPeople.show()

    teenagers = spark.sql('select * from people where age>500 and  age<1000 ')

    # 对查询的数据进行修改

    teeNames = teenagers.rdd.map(lambda p: "Name: "+p.name).collect() 

    print(f"teeNames:{teeNames}")

    for name in teeNames:

        print(name)

4.6:Parquet 文件

Parquet 是一种列式存储格式,很多其它的数据处理系统都支持它。Spark SQL 提供了对 Parquet 文件的读写支持,而且 Parquet 文件能够自动保存原始数据的 schema。写 Parquet 文件的时候,所有列都自动地转化成 nullable,以便向后兼容

    '''

        将json文件转化为parquet,然后读取parquet文件创建视图进行查询

    '''

    sc = SparkContext('local', 'parquet')

    spark = SparkSession(sc)

    df = spark.read.json("./people.json")

    df.write.parquet("people.parquet")

    people_df = spark.read.parquet("people.parquet")

    people_df.createOrReplaceTempView("people")

    teenage = spark.sql("select * from people where age>=13 and age<=19")

    teenage.show()

    '''

    生成2个parquet 文件, 将其进行合并


    '''

    sc = SparkContext('local', 'merge parquet')

    spark = SparkSession(sc)

    df1 = spark.createDataFrame(sc.parallelize(range(1, 6)).map(lambda l: Row(single=l, double=l**2)))

    df1.write.parquet("./test_table/key=1")

    df2 = spark.createDataFrame(sc.parallelize(range(6, 11)).map(lambda p: Row(single=p, triple=p**3)))

    df2.write.parquet("./test_table/key=2")

    merge_df = spark.read.option('mergeSchema', "true").parquet("./test_table")

    # merge_df.printSchema()

    merge_df.createOrReplaceTempView('merge')

    merge_df.show()

    # 或者直接在文件上运行sql

    df = spark.sql("select * from parquet.`./users.parquet`")


4.7:spark集成hive从hive上读取数据

    from pyspark.sql import SparkSession

    spark = SparkSession.builder.master("local[*]").appName("hive app").enableHiveSupport().getOrCreate()

    spark.sql("CREATE TABLE IF NOT EXISTS srcpp (key INT, value STRING) USING hive")

    spark.sql("load data local inpath './kv1.txt' into table srcpp")

    # Queries are expressed in HiveQL 查询以HiveQL表示

    spark.sql('select * from srcpp').show()

    其中关键要加上:enableHiveSupport()

4.8: spark集成mysql:

Spark SQL也包括一个可以使用JDBC从其它数据库读取数据的数据源。该功能应该优于使用JdbcRDD,因为它的返回结果是一个DataFrame,而在Spark SQL中DataFrame处理简单,且和其它数据源进行关联操作。JDBC数据源在Java和Python中用起来很简单,因为不需要用户提供一个ClassTag

连接数据库读取

方法一:

dbcDF = spark.read \

    .format("jdbc") \

    .option("url", "jdbc:postgresql:dbserver") \

    .option("dbtable", "schema.tablename") \

    .option("user", "username") \

    .option("password", "password") \

    .load()

方法二:

jdbcDF2 = spark.read \

    .jdbc("jdbc:postgresql:dbserver", "schema.tablename",

          properties={"user": "username", "password": "password"})

连接数据库写入

方法一:

# Saving data to a JDBC source

jdbcDF.write \

    .format("jdbc") \

    .option("url", "jdbc:postgresql:dbserver") \

    .option("dbtable", "schema.tablename") \

    .option("user", "username") \

    .option("password", "password") \

    .save()

方法二

jdbcDF2.write \

    .jdbc("jdbc:postgresql:dbserver", "schema.tablename",

          properties={"user": "username", "password": "password"})

方法三

# Specifying create table column data types on write

jdbcDF.write \

    .option("createTableColumnTypes", "name CHAR(64), comments VARCHAR(1024)") \

    .jdbc("jdbc:postgresql:dbserver", "schema.tablename",

          properties={"user": "username", "password": "password"})

例子:

    sc = SparkContext('local', 'mysql  view')

    spark = SparkSession(sc)

    df = spark.read.parquet("./people.parquet")

    df.show()

    # 将结果写进mysql数据库

    url = "jdbc:mysql://127.0.0.1:3306/data_test?useUnicode=true&characterEncoding=UTF-8&serverTimezone=GMT%2B8"

    table = "person"

    mode = "overwrite"

    properties = {'user': 'root', 'password': 'hgh15070417641'}

    df.write.jdbc(url, table, mode, properties=properties)

其中需要下载mysql-connector-java.jar, 下载路径:

https://mvnrepository.com/artifact/mysql/mysql-connector-java

选择对应的版本 我的java版本:11.0.8  pyspark: 3.0.1,  Scala version 2.12.10, 选择了mysql-connector-java-8.0.21.jar

4.9:性能调优:

对于有一定计算量的Spark任务,可以将数据放入内存缓存或开启一些试验选项来提升性能

通过调用 spark.cacheTable(“tableName”) 或者 dataFrame.cache() 方法, Spark SQL可以使用一种内存列存储格式缓存表。接着Spark SQL只扫描必要的列,并且自动调整压缩比例,以最小化内存占用和GC压力。你可以调用 spark.uncacheTable(“tableName”) 方法删除内存中的表

五:spark Streaming:

5.1 StreamingContext介绍:

from pyspark.streaming import StreamingContext

'''

StreamingContext(sparkContext, batchDuration=None, jssc=None

'''

sparkContext 功能入口点, batchDuration:持续时间

例子:

from pyspark import SparkContext, SparkConf

from pyspark.streaming import StreamingContext

conf = SparkConf()\

        .setMaster("local[*]")\

        .setAppName("stream app")\

        .set("spark.streaming.backpressure.enabled", "True")\

        .set("spark.streaming.receiver.maxRate", "100")

    sc = SparkContext.getOrCreate(conf)

    ssc = StreamingContext(sc, 3)

    # 形成DStream

    dstream = ssc.socketTextStream('127.0.0.1', 9999)

    # 词频统计

    result = dstream.flatMap(lambda line: line.split("\t")).map(lambda word: (word, 1)).reduceByKey(lambda a, b: a+b)

    result.pprint()

    # 开启程序

    ssc.start()

    ssc.awaitTermination()

注意: 运行这个方法前需要线运行:  nc -lk 9999

5.2: SparkStreaming 和kafka集成

spark-streaming-kafka-0-10 和 spark-streaming-kafka-0-8

1:spark-streaming-kafka-0-8 :

SparkStreaming 和kafka集成有2种模式:

1: receiver 模式(数据接收器模式)

2: direct模式(直接读取数据)

注意: sparkstreaming的被压机制: 为了解决数据进来的太快, 集群计算速度跟不上, 可以开启背压机制来进行限速:set("spark.streaming.backpressure.enabled", "True")

        receiver:set("spark.streaming.receiver.maxRate", "100") 表示接收数据最大的速率

        direct模式: set("spark.streaming.kafka.maxRatePerPartition") : 表示sparkstreaming每个批次每一个分区每秒钟接受的数据的条数, 默认是无限制

你可能感兴趣的:(spark Sql, dataframe, Dataset 和 Streaming编程指南)