Pyspark实战(一)环境部署

这里假设Python环境已经部署完成,相关版本如下:

  1. spark2.2.0,部署过程参考https://blog.csdn.net/luoye4321/article/details/90552674。
  2. python3.7,部署过程参考https://www.runoob.com/python/python-install.html
  3. JavaJDK1.8以上版本
  4. 下载pyspark包

使用命令:pip install pyspark或pip install pyspark=版本号

到这里基本上环境已经安装完成,我们编写一个helloworld测试pyspark包是否引入成功。

使用pycharm新建一个项目,创建hello.py,输入以下代码:

from pyspark import SparkContext,SparkConf

print("hello,world")

直接运行,输出hello,world。

通过本地spark提交python文件,打开命令行,输入如下命令:

说明spark环境部署成功。

你可能感兴趣的:(大数据,pyspark)