在同一局域网下使用SecureCRT对其中一台服务器进行连接并实现远程操控。
(鼠标右键粘贴,左键复制,Tab键自动补全)
wget http://download.oracle.com/otn-pub/java/jdk/8u162-b12/0da788060d494f5095bf8624735fa2f1/jdk-8u162-linux-x64.tar.gz
# a. 修改环境变量:
sudo vim ~/.bashrc(针对个人用户则配置bashrc,全局则配置/etc/profile)
# b. 在末尾添加:
export JAVA_HOME=/home/uestc/bin/java/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
# c. 保存退出后使配置文件生效:
source ~/.bashrc
uestc@sparkmaster:~$ sudo apt install gcj-5-jre-headless
另外,删除自带 openjdk 的指令为:sudo apt-get remove openjdk*
,最终结果应如下图所示:
运用 scp 命令在 sparkworker1 和 sparkworker2 上安装 JDK 并采用上面相同的方式进行配置环境和检测:
scp -r [email protected]:/home/uestc/bin/java /home/uestc/bin/java
此为确保后期其他服务器配置 Scala 时 Java 环境正确。
Hadoop 是采用 ssh 进行通信的,此时我们要设置密码为空,即不需要密码登录,这样免去每次通信时都输入密码。
ssh-keygen -t rsa
cat ~/.ssh/• id_rsa.pub >> ~/.ssh/authorized_keys
ssh localhost
(Are you sure you want to continue connecting (yes/no)?时输入 yes)在“/etc/hosts”中把三台机器分别设置为sparkmaster、sparkworker1、sparkworker2
注意:公钥保存在/home/uestc/.ssh文件夹中
用ssh-copy-id将公钥复制到远程机器中:ssh-copy-id [-i [identity_file]] [user@]machine
Ubuntu 默认安装了 rsync,可以通过以下命令来安装或更新 rsync:
apt-get install rsync
mkdir /home/uestc/bin/hadoop
tar -xvf ./hadoop-2.7.5.tar.gz /home/uestc/bin/hadoop
# 1. 进入配置文件的目录:
cd /home/uestc/bin/hadoop/hadoop-2.7.5/etc/hadoop
# 2. 编辑hadoop-env.sh文件:
sudo vim ./hadoop-env.sh
# 添加以下内容:
export JAVA_HOME=/home/uestc/bin/java/jdk1.8.0_162
# 3. 使用source命令使hadoop-env.sh配置信息生效:source ./hadoop-env.sh
sudo vim ~/.bashrc
# 添加以下内容:
export JAVA_HOME=/home/uestc/bin/java/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:/home/uestc/bin/hadoop/hadoop-2.7.5/bin:$PATH
# 使用source命令使hadoop-env.sh配置信息生效:
source ~/.bashrc
进入hadoop配置文件区修改hadoop的配置文件
vim hadoop-env.sh
vim yarn-env.sh
source ./yarn-env.sh
使得配置立刻生效。vim mapred-env.sh
source mapred-env.sh
使得配置立刻生效。vim slaves
vim core-site.xml
,并添加以下内容:<configuration>
<property>
<name>fs.defaultFSname>
<value>hdfs://sparkmaster:9000/value>
<description>The name of the default file systemdescription>
property>
<property>
<name>hadoop.tmp.dirname>
<value>/home/uestc/bin/hadoop/hadoop-2.7.5/tmpvalue>
<description>A base for other temporary directoriesdescription>
property>
configuration>
vim hdfs-site.xml
,并添加以下内容:<configuration>
<property>
<name>dfs.replicationname>
<value>2value>
<description>The number of dfs replicationdescription>
property>
<property>
<name>dfs.namenode.name.dirname>
<value>/home/uestc/bin/hadoop/hadoop-2.7.5/dfs/namevalue>
property>
<property>
<name>dfs.datanode.data.dirname>
<value>/home/uestc/bin/hadoop/hadoop-2.7.5/dfs/datavalue>
property>
configuration>
cp ./mapredsite.xml.template ./mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.namename>
<value>yarnvalue>
property>
configuration>
上述是mapred-site.xml文件的最小化配置。
vim yarn-site.xml
,添加以下内容:<configuration>
<property>
<name>yarn.resourcemanager.hostnamename>
<value>sparkmastervalue>
property>
<property>
<name>yarn.nodemanager.aux-servicesname>
<value>mapreduce_shufflevalue>
property>
configuration>
上述是yarn-site.xml文件的最小化配置。
# 移动java:
scp -r [email protected]:/home/uestc/bin/java /home/uestc/bin/java
vim ~/.bashrc
# 加入
export JAVA_HOME=/home/carifi/uestc/bin/java/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
# 生效
source ~/.bashrc
# 移动hadoop:
scp -r [email protected]:/home/uestc/bin/hadoop/ /home/uestc/bin/hadoop
# 移动java:
scp -r [email protected]:/home/uestc/bin/java /home/uestc/bin/java
vim /etc/profile
# 加入
export JAVA_HOME=/home/uestc/bin/java/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export HADOOP_HOME=/home/uesct/bin/hadoop/hadoop-2.7.5
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
# 生效
source /etc/profile
# 移动hadoop:
scp -r [email protected]:/home/uestc/bin/hadoop/ /home/uestc/bin/hadoop