linux服务器 conda + jdk+ scala+ spark 环境搭建

1.安装anaconda并新建conda环境,注意和windows中不一样的是启动环境命令是

conda create -n spark
source activate spark

2.安装并查看java8版本,我这里java版本是1.8.0_151


image.png

3.安装scala,可以在Anaconda官网搜索版本并安装,我这里scala版本2.12.8
安装py4j

conda install -c pdrops scala
conda install py4j

4.安装Spark,以上依赖就全部完成了,下载并解压spark-2.4.0-bin-hadoop2.7.tgz

tar -xzf spark-2.4.0-bin-hadoop2.7.tgz

你可能感兴趣的:(linux服务器 conda + jdk+ scala+ spark 环境搭建)