SparkSQL之DataFrame案例

待处理文件

准备待处理文件student.data,内容如下:

1|vincent|13827460000|[email protected]
2|jenny|13827460002|[email protected]
3|sofia|13827460003|[email protected]
4|natasha|13827460004|[email protected]
5|catalina|13827460005|[email protected]
6|jax|13827460006|[email protected]
7|missfortune|13827460007|[email protected]
8|anny|13827460008|[email protected]
9|jinx|13827460009|jqu@xinhuanet
10|ezrio|13827460010|[email protected]
11|lucas|13827460011|[email protected]
12||13827460012|[email protected]
13|NULL|13827460013|[email protected]

特别注意最后第二个字段有特点。

代码实现

首先测试分隔符:

package cn.ac.iie.spark

import org.apache.spark.sql.SparkSession

/**
 * DataFrame中的操作
 */
object DataFrameCase {
  def main(args: Array[String]): Unit = {
    val DataFrameCase = SparkSession.builder().appName("DataFrameCase").master("local[2]").getOrCreate()
    val rdd = DataFrameCase.sparkContext.textFile("file:///E:/test/student.data")

    // 注意需要导入隐式转换
    import DataFrameCase.implicits._
    val studenntDF = rdd.map(_.split("\\")).map(line => Student(line(0).toInt, line(1), line(2), line(3))).toDF()
    studenntDF.show()

    DataFrameCase.close()
  }
  case class Student(id: Int, name: String, phone: String, email: String)
}

输出如下:
SparkSQL之DataFrame案例_第1张图片
注意分隔符应该使用转义字符进行转移,否则出现下面的情况,就不是我们所期望的了:
SparkSQL之DataFrame案例_第2张图片
同时可以看到,当邮箱长度过长时,会出现...的情况。
可以使用show(20, false)重载方法(第一个参数表示显示多少行,第二个方式表示是否截取),来解决这个问题。

  • studenntDF.select("email").show:只显示email数据
  • studenntDF.filter("name='' OR name='NULL'").show(false):只显示name为空或者NULL的数据
  • studenntDF.filter("SUBSTR(name,0,1)='v'").show(false):显示name第一个字符为v的数据。SUBSTRSUBSTRING等价。
  • studenntDF.sort(studenntDF.col("name")).show():按照name进行字母顺序排序
  • studenntDF.sort(studenntDF.col("name").desc).show():按照name进行降序排序
  • studenntDF.sort(studenntDF.col("name").desc, studenntDF.col("email")).show():按照name进行降序,email进行升序
  • studenntDF.join(studenntDF2, studenntDF.col("id") === studenntDF2.col("id"), "inner").show():进行join操作,默认是内连接。

你可能感兴趣的:(spark)