PySpark - DataFrame的基本操作

PySpark - DataFrame的基本操作

  • 连接spark
  • 1、添加数据
    • 1.1、createDataFrame: 创建空dataframe
    • 1.2、createDataFrame : 创建一个spark数据框
    • 1.3、.toDF() : 创建一个spark数据框
    • 1.4、新增数据列 :withColumn
  • 2、修改数据
    • 2.1、修改原有数据框中某一列的值(统一修改)
    • 2.2、修改列的类型(类型投射):.cast()
    • 2.3、修改列名 : withColumnRenamed
    • 2.4、过滤数据 : filter和where方法的效果相同
    • 2.5、对null或者NaN数据进行过滤
    • 2.6、填充NA : fillna
  • 3、查询数据
    • 3.1、行数据查询操作
      • 3.1.1、show函数内可用int类型指定要打印的行数:.show()
      • 3.1.2、以树的形式打印概要: .printSchema()
      • 3.1.3、获取头几行到本地: head()
      • 3.1.4、查询总行数: count()
      • 3.1.5、取别名: dataframe.column.alias('new_col_name')
      • 3.1.6、查询数据框中某列为null的行
      • 3.1.7、输出list类型,list中每个元素是Row类:
      • 3.1.8、查看数据框中数值型列的统计情况(stddev是标准差的意思)
      • 3.1.9、去重操作 : .distinct() 和 dropDuplicates()
      • 3.1.10、随机抽样
    • 3.2、列元素操作
      • 3.2.1、获取数据框的所有列名
      • 3.2.2、选择一列或多列:select
      • 3.2.3、排序 : orderBy
  • 4、删除数据
    • 4.1、删除某一列 : drop()
    • 4.2、删除任何包含na的行
  • 5、合并数据
    • 5.1、横向拼接 : union()
    • 5.2、纵向拼接:join()
    • 5.3、求差集 : subtract()
    • 5.4、求交集 : intersect()
    • 5.5、求并集 : union()
  • 6、统计数据
    • 6.1、交叉统计 : crosstab()
    • 6.2、分组统计 : groupBy()
    • 6.3、应用于多个函数
  • 7、格式转换
    • 7.1、pandas.DtataFrame 与 Spark.DataFrame两者互相转换
    • 7.2、Spark.DataFrame与Koalas.DataFrame两者互相转换
    • 7.3、spark.DataFrame与RDD两者相互转换
  • 8、SQL操作
    • 8.1、创建视图
    • 8.2、正常的查询语句
    • 8.3、转换某一列的时间格式
  • 9、读写数据
    • 9.1、spark.DataFrame与csv文件的相互转换
    • 9.2、spark.DataFrame与parquet文件的相互转换

连接spark

ps:我使用的是单机版spark3.0版本

import socket
from pyspark import SparkContext, SparkConf
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext
import pandas as pd

localIpAddress = socket.gethostbyname(socket.gethostname())

# 创建Spark配置
sparkConf = SparkConf()

# 初始化我们的Spark集群,这实际上会生成工作节点。
spark = SparkSession.builder.config(conf=sparkConf).getOrCreate()
sc = spark.sparkContext
sqlContext = SQLContext(sc)
spark

PySpark - DataFrame的基本操作_第1张图片

1、添加数据

创建spark的数据框有这么两种常规的新建数据方式:
①.createDataFrame ()
②.toDF()

1.1、createDataFrame: 创建空dataframe

from pyspark.sql.types import *

schema = StructType([
        StructField("user_id", StringType(), True),
        StructField("name", StringType(), True),
        StructField("age", IntegerType(), True),
        StructField("score", FloatType(), True)
])
empty_dataframes = spark.createDataFrame(spark.sparkContext.emptyRDD(), schema)

PySpark - DataFrame的基本操作_第2张图片

1.2、createDataFrame : 创建一个spark数据框

sdf = sqlContext.createDataFrame([("a1", "小明", 12, 56.5), ("a2", "小红", 15, 23.0),\
                                 ("a3", "小强", 23, 84.0), ("a3","小小",9,93.5)],\
                                 ("user_id", "name", "age", "score"))

PySpark - DataFrame的基本操作_第3张图片

1.3、.toDF() : 创建一个spark数据框

from pyspark.sql import Row

row = Row("user_id","name","age","score")
row_user_id = ['a1','a2','a3','a4']
row_name = ['小明','小红','小强','小小']
row_age = [12,15,23,9]
row_score = [56.5,23.0,84.0,93.5]

sdf1 = sc.parallelize([row(row_user_id[i],row_name[i],row_age[i],row_score[i]) for i in range(len(row))]).toDF()

PySpark - DataFrame的基本操作_第4张图片

1.4、新增数据列 :withColumn

withColumn是通过添加或替换与现有列有相同的名字的列,返回一个新的DataFrame

sdf2 = sdf1.withColumn('score_new',sdf1.score/2.0)

PySpark - DataFrame的基本操作_第5张图片

如果不想在原有列的基础上添加新的列,而是添加一列全新的,不同于原有数据框的列,可以考虑join()函数

import numpy as np
sdf3 = sqlContext.createDataFrame([("a1",3.0), ("a2",3.0), ("a3",np.nan)], ("user_id_class", "class"))

PySpark - DataFrame的基本操作_第6张图片

sdf4 = sdf2.join(sdf3,sdf2.user_id==sdf3.user_id_class,'left').drop('user_id_class')

PySpark - DataFrame的基本操作_第7张图片

2、修改数据

2.1、修改原有数据框中某一列的值(统一修改)

sdf5 = sdf4.withColumn('score_new',sdf4.score_new/2)

PySpark - DataFrame的基本操作_第8张图片

2.2、修改列的类型(类型投射):.cast()

sdf6 = sdf4.withColumn('score_new',sdf4.score_new.cast("Int"))

PySpark - DataFrame的基本操作_第9张图片

2.3、修改列名 : withColumnRenamed

sdf6 = sdf6.withColumnRenamed("score_new","new_score")

PySpark - DataFrame的基本操作_第10张图片

2.4、过滤数据 : filter和where方法的效果相同

sdf7 =  sdf6.filter(sdf6.age>10)

PySpark - DataFrame的基本操作_第11张图片

sdf7 = sdf6.where(sdf6.age>9).where(sdf6.age<23)

PySpark - DataFrame的基本操作_第12张图片

2.5、对null或者NaN数据进行过滤

from pyspark.sql.functions import isnan, isnull

sdf9 = sdf6.filter(isnull("class"))  # 把a列里面数据为null的筛选出来(代表python的None类型)
sdf10 = sdf6.filter(isnan("class"))  # 把a列里面数据为nan的筛选出来(Not a Number,非数字数据)

PySpark - DataFrame的基本操作_第13张图片

2.6、填充NA : fillna

sdf6.fillna(-1)

PySpark - DataFrame的基本操作_第14张图片

3、查询数据

3.1、行数据查询操作

3.1.1、show函数内可用int类型指定要打印的行数:.show()

sdf.show(5)

PySpark - DataFrame的基本操作_第15张图片

3.1.2、以树的形式打印概要: .printSchema()

sdf.printSchema()

PySpark - DataFrame的基本操作_第16张图片

3.1.3、获取头几行到本地: head()

list = sdf.head(3)

PySpark - DataFrame的基本操作_第17张图片

3.1.4、查询总行数: count()

sdf_num = sdf.count()

在这里插入图片描述

3.1.5、取别名: dataframe.column.alias(‘new_col_name’)

# 给age列取别名
sdf.select('user_id',sdf.age.alias('age_value'),'name').show()

PySpark - DataFrame的基本操作_第18张图片

3.1.6、查询数据框中某列为null的行

from pyspark.sql.functions import isnull
# 查询class列中含有空数据的那一行
sdf11 = sdf4.filter(isnull("class"))

PySpark - DataFrame的基本操作_第19张图片

3.1.7、输出list类型,list中每个元素是Row类:

list = sdf.collect()

PySpark - DataFrame的基本操作_第20张图片

3.1.8、查看数据框中数值型列的统计情况(stddev是标准差的意思)

sdf.describe()

PySpark - DataFrame的基本操作_第21张图片

3.1.9、去重操作 : .distinct() 和 dropDuplicates()

sdf.select(['user_id','name','age','score']).distinct()
sdf.select(['user_id','name','age','score']).dropDuplicates()

PySpark - DataFrame的基本操作_第22张图片

3.1.10、随机抽样

sample = sdf.sample(False,0.5,2)  # 随机选择50%的行,取其中两个

PySpark - DataFrame的基本操作_第23张图片

3.2、列元素操作

3.2.1、获取数据框的所有列名

sdf.columns

PySpark - DataFrame的基本操作_第24张图片

3.2.2、选择一列或多列:select

sdf['age']
sdf.age

PySpark - DataFrame的基本操作_第25张图片

sdf.select('age').show()  #选择sdf数据框中age列
sdf.select(sdf.user_id,sdf.age,sdf.name).show()  #选择sdf数据框中user_id列,age列,name列

PySpark - DataFrame的基本操作_第26张图片

3.2.3、排序 : orderBy

sdf.orderBy(sdf.age).show()   # 根据age列升序排序
sdf.orderBy(sdf.age.desc()).show()   # 根据age列降序排序

PySpark - DataFrame的基本操作_第27张图片

4、删除数据

4.1、删除某一列 : drop()

sdf12 = sdf.drop('age')
sdf13 = sdf.drop(sdf.age)

PySpark - DataFrame的基本操作_第28张图片

4.2、删除任何包含na的行

sdf14 = sdf5.na.drop()

PySpark - DataFrame的基本操作_第29张图片

# 扔掉user_id或class中任一一列包含na的行
sdf15 = sdf5.dropna(subset=['user_id','class'])  

PySpark - DataFrame的基本操作_第30张图片

5、合并数据

5.1、横向拼接 : union()

sdf_union = sdf.union(sdf1)

PySpark - DataFrame的基本操作_第31张图片

5.2、纵向拼接:join()

PySpark - DataFrame的基本操作_第32张图片

sdf16 = sdf5.join(sdf14, sdf5.user_id == sdf14.user_id,'inner')

PySpark - DataFrame的基本操作_第33张图片
PS:其中,方法可以为:inner, outer, left_outer, right_outer, leftsemi。

5.3、求差集 : subtract()

sdf17 = sdf5.subtract(sdf14)

PySpark - DataFrame的基本操作_第34张图片

5.4、求交集 : intersect()

sdf18 = sdf5.intersect(sdf14)

PySpark - DataFrame的基本操作_第35张图片

5.5、求并集 : union()

# 求并集然后去重
sdf19 = sdf5.union(sdf14).distinct()

PySpark - DataFrame的基本操作_第36张图片

6、统计数据

6.1、交叉统计 : crosstab()

# 分析关于name列在class列中各个不同的值的数量
sdf19.crosstab('name','class')

PySpark - DataFrame的基本操作_第37张图片

6.2、分组统计 : groupBy()

先创建一个案例数据框

from pyspark.sql import Row

row = Row("user_id","product_id","name","money")
row_user_id = ['a1','a2','a3','a3','a1','a2']
row_product_id = ['b1','b2','b3','b1','b2','b3']
row_name = ['小明','小红','小强','小强','小明','小红']
row_money = [56.5, 23.0, 84.0, 93.5, 12.7, 43.5, 86.1]

sdf_gb = sc.parallelize([row(row_user_id[i],row_product_id[i],row_name[i],row_money[i]) for i in range(len(row_user_id))]).toDF()

PySpark - DataFrame的基本操作_第38张图片

# 分组统计不同名字的人的平均消费水平
sdf_gb.groupby('name').agg({'money':'mean'})
# 分组统计不同名字的人最大的一笔消费
sdf_gb.groupby('name').agg({'money':'max'})
# 分组统计不同名字的人最小的一笔消费
sdf_gb.groupby('name').agg({'money':'min'})
# 分组统计不同名字的人的消费总和
sdf_gb.groupby('name').agg({'money':'sum'})
# 分组统计不同名字的人一共有多少笔消费
sdf_gb.groupby('name').count()

PySpark - DataFrame的基本操作_第39张图片
PySpark - DataFrame的基本操作_第40张图片

6.3、应用于多个函数

PS:整合后GroupedData类型可用的方法(均返回DataFrame类型):

  • avg(*cols) —— 计算每组中一列或多列的平均值
  • count() —— 计算每组中一共有多少行,返回
  • DataFrame有2列,一列为分组的组名,另一列为行总数
  • max(*cols) —— 计算每组中一列或多列的最大值
  • mean(*cols) —— 计算每组中一列或多列的平均值
  • min(*cols) —— 计算每组中一列或多列的最小值
  • sum(*cols) —— 计算每组中一列或多列的总和
from pyspark.sql import functions
sdf_gb.groupby('name').agg(functions.avg('money'),functions.min('money'),functions.max('money'),functions.sum('money'),functions.count('money')).show()

PySpark - DataFrame的基本操作_第41张图片

7、格式转换

7.1、pandas.DtataFrame 与 Spark.DataFrame两者互相转换

pandas_df = sdf.toPandas()

PySpark - DataFrame的基本操作_第42张图片

spark_df = spark.createDataFrame(pandas_df)

PySpark - DataFrame的基本操作_第43张图片

7.2、Spark.DataFrame与Koalas.DataFrame两者互相转换

import databricks.koalas as ks
koalas_df = spark_df.to_koalas()

PySpark - DataFrame的基本操作_第44张图片

spark_df = koalas_df.to_spark()

PySpark - DataFrame的基本操作_第45张图片

7.3、spark.DataFrame与RDD两者相互转换

rdd_df = spark_df.rdd
rdd_df.collect()

PySpark - DataFrame的基本操作_第46张图片

saprk_df = rdd_df.toDF()

PySpark - DataFrame的基本操作_第47张图片

8、SQL操作

8.1、创建视图

为spark.DataFrame创建一张能进行SQL操作的表:

sdf.createOrReplaceTempView("sdf_SQL")

8.2、正常的查询语句

将spark.DataFrame注册成相关名字的SQL表之后:就可以进行SQL查询了(返回DataFrame):

select_sql = "select * from sdf_SQL where name like '%{}%' and score>{}".format('小',60)
Spark_dataframe = spark.sql(select_sql)

PySpark - DataFrame的基本操作_第48张图片

8.3、转换某一列的时间格式

sdf_date = sqlContext.createDataFrame([("a1", "小明","2020-09-01 23:00:00"),\
                                       ("a2", "小红","2020-09-02 13:00:00"),\
                                       ("a3", "小强", "2020-09-03 03:00:00"),\
                                       ("a4","小小","2020-09-04 23:00:00")],\
                                       ("user_id", "name","date_time"))

PySpark - DataFrame的基本操作_第49张图片
将date_time这一列的时间从精确到秒修改为精确到日:

import pyspark.sql.functions as F

sdf_date1 = sdf_date.select('user_id','name',F.date_format('date_time','yyyy-MM-dd')).withColumnRenamed('date_format(date_time, yyyy-MM-dd)','date_time')

PySpark - DataFrame的基本操作_第50张图片
同理,也可以将精确到日修改为精确到秒(默认为凌晨12点整):

sdf_date2 = sdf_date1.select('user_id','name',F.date_format('date_time','yyyy-MM-dd HH:mm:ss')).withColumnRenamed('date_format(date_time, yyyy-MM-dd HH:mm:ss)','date_time')

PySpark - DataFrame的基本操作_第51张图片

9、读写数据

9.1、spark.DataFrame与csv文件的相互转换

# 将spark.dataframe保存为csv文件
sdf.write.csv("sdf.csv",header=True,sep=",",mode='overwrite')

# 读取csv文件为spark.dataframe
sdf_spark = spark.read.csv("sdf.csv",header=True, inferSchema=True)

其中,sdf.csv文件是存储在当前目录的,如果想指定目录,把指定的路径也写上去就行。

9.2、spark.DataFrame与parquet文件的相互转换

# 将spark.dataframe保存为parquet文件
sdf.write.parquet("sdf.parquet",mode='overwrite')

# 读取parquet文件为spark.dataframe
sdf_spark = spark.read.parquet("sdf.parquet")

最后,如果大家不再进行任何操作的话,记得把spark停掉!!!

spark.stop()

你可能感兴趣的:(python,spark)