清华大学源:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pyspark
"""
演示获取PySpark的执行环境入库对象
并通过SparkContext对象获取当前Spark的版本
"""
#导包
from pyspark import SparkConf,SparkContext
#创建SparkConf类对象
#链式调用的关键在于返回值都一样
conf = SparkConf().setMaster("local[*]").setAppName("test_spark_app")
# conf = SparkConf()
# conf.setMaster("loacal[*]")
# conf.setAppName("test_spark_app")
#基于SparkConf类对象创建SparkContext对象
sc = SparkContext(conf=conf)
# 打印PySparkde运行版本
print(sc.version)
#停止SparkContext对象的运行(停止PySpark)
sc.stop()