Spark读写csv(带表头)

1.读csv文件

//2.x后也内置了csv的解析器,也可以简单滴使用csv(),
val df=spark.read.format("csv").option("header", "true").option("mode", "DROPMALFORMED").csv("csv/file/path")
//全参数解析
val spark = SparkSession.builder().appName("fileRead").getOrCreate()
        import spark.implicits._
        val data1 = spark.read
            //          推断数据类型
            .option("inferSchema", "true")
            //         可设置分隔符,默认,
            //.option("delimiter",",")
            //          设置空值
            .option("nullValue", "?")
            //          表示有表头,若没有则为false
            .option("header", true)
            //          文件路径
            .csv("test.csv")
        //          打印数据格式
        data1.printSchema()
        //      显示数据,false参数为不要把数据截断
        data1.show(false)

2.写csv文件

通过SparkSQL写csv
//2.x
data.write
    .option("header", "true")
    .csv("outpath/test.csv")

你可能感兴趣的:(Spark读写csv(带表头))