linux下spark的python编辑_Linux下搭建Spark 的 Python 编程环境的方法
Spark编程环境Spark可以独立安装使用,也可以和Hadoop一起安装使用。在安装Spark之前,首先确保你的电脑上已经安装了Java8或者更高的版本。Spark安装访问Spark下载页面,并选择最新版本的Spark直接下载,当前的最新版本是2.4.2。下载好之后需要解压缩到安装文件夹中,看自己的喜好,我们是安装到了/opt目录下。tar-xzfspark-2.4.2-bin-hadoop2.