PythonRDD[1] at RDD at PythonRDD.scala:53

运行spark程序时出现以下错误

PythonRDD[1] at RDD at PythonRDD.scala:53

解决方法

原程序代码:

from pyspark import SparkConf,SparkContext
conf = SparkConf().setAppName('filer').setMaster('local[*]')
sc = SparkContext(conf=conf)

rdd = sc.parallelize([1,2,3,4,5,6])
rdd_filer = rdd.filter(lambda x:x>1)
print(rdd_filer)

更改后:

from pyspark import SparkConf,SparkContext
conf = SparkConf().setAppName('filer').setMaster('local[*]')
sc = SparkContext(conf=conf)

rdd = sc.parallelize([1,2,3,4,5,6])
rdd_filer = rdd.filter(lambda x:x>1)
print(rdd_filer.collect())

更改后成功运行

你可能感兴趣的:(报错锦集,spark分布式计算框架,数据分析,scala,开发语言,后端)