pyspark读写orc格式数据

orc_df = spark.read.orc('python/test_support/sql/orc_partitioned')

orc_df.write.orc(os.path.join(tempfile.mkdtemp(), 'data'))

你可能感兴趣的:(spark)