spark在创建临时表时的异常

通过spark.dataframe(数据框的名字sparkdataframe)创建成临时表(createGlobalTempView(spark_view)),然后通过%%sql -o -q spark_sql     select * from spark_view  最后检查发现sparkdataframe和spark_sql的数据量是不一样的,有人遇到这种情况了吗?

你可能感兴趣的:(Python,spark)