Spark+hadoop环境配置

1.下载安装包

虚拟机

jdk-1.8

scala

spark

Hadoop

2.安装虚拟机和Linux

3.配置jdk

4.配置Hadoop

4.1Hadoop单机配置

5.安装scala

6.配置spark

7.spark集群环境的测试

你可能感兴趣的:(Spark+hadoop环境配置)