【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)

把下载下来的“hadoop-2.2.0.tar.gz”复制到“/usr/local/hadoop/”文件夹下并解压:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第1张图片

改动系统配置文件,改动~/.bashrc文件配置“HADOOP_HOME”并把“HADOOP_HOME”下的bin目录增加PATH中,改动完后使用source命令使配置生效。

接下来在hadoop文件夹下依照例如以下命令创建文件夹:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第2张图片

\接下来開始改动hadoop的配置文件,首先进入Hadoop 2.2.0配置文件区:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第3张图片

第一步改动配置文件hadoop-env.sh,在当中增加“JAVA_HOME”,例如以下所看到的:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第4张图片

指定我们安装的“JAVA_HOME”:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第5张图片

第二步改动配置文件yarn-env.sh,在当中增加“JAVA_HOME”,例如以下所看到的:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第6张图片

指定我们安装的“JAVA_HOME”:


第三步改动配置文件mapred-env.sh,在当中增加“JAVA_HOME”,例如以下所看到的:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第7张图片

指定我们安装的“JAVA_HOME”:

【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(2)_第8张图片



你可能感兴趣的:(spark)