详细点击这里,了解更多
思路:让主节点连接外网的时间,从节点仅仅连接主节点的时间,达到3台机时间一样的目的
vi /etc/chrony/chrony.conf
添加
local stratum 10
allow 172.25.0.0/24
systemctl enable chrony
systemctl restart chrony
vi /etc/chrony/chrony.conf
注释这4行,添加server master iburst
目的是为了将编辑好的文档下发到从节点
sudo groupadd -g 285 angel
(可以在bass普通用户下操作,可以在root用户下操作。若在bass需要提高权限sudo,root用户则不用。)
285 是组号,angel是组名。
$ sudo useradd -u 285 -g 285 -m -s /bin/bash angel
用户号为285,用户组号为285,用户名为angel。
sudo gpasswd -a angel sudo
将angel用户添加到sudo组。
sudo passwd angel
密码为123
su - angel
密码:123
ssh-copy-id -i .ssh/id_rsa.pub master
ssh slave1
ssh slave2
在angel用户下建立
sudo mkdir /app
sudo chown -R angel:angel /app
vi /home/angel/.profile
在最后添加2行
source /home/angel/.profile
cd /app
tar xzvf /home/angel/jdk-8u261-linux-x64.tar.gz -C /app
scp -r /app/* angel@slave1:/app
scp -r /app/* angel@slave2:/app
java -version
javac -version
tar xzvf /home/angel/hadoop-2.8.5.tar.gz -C /app
vi /home/angel/.profile
添加:
export HADOOP_HOME=/app/hadoop-2.8.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
source /home/angel/.porfile
vi /app/hadoop-2.8.5/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/app/jdk1.8.0_261
vi /app/hadoop-2.8.5/etc/hadoop/core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoop-2.8.5</value>
</property>
<property>
<name>hadoop.proxyuser.angel.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.angel.groups</name>
<value>*</value>
</property>
vi /app/hadoop-2.8.5/etc/hadoop/hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/app/hadoop-2.8.5/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/app/hadoop-2.8.5/dfs/data</value>
</property>
先将 mapred-site.xml.template复制命名为mapred-site.xml
cp /app/hadoop-2.8.5/etc/hadoop/mapred-site.xml.template /app/hadoop-2.8.5/etc/hadoop/mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
vi /app/hadoop-2.8.5/etc/hadoop/yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
vi /app/hadoop-2.8.5/etc/hadoop/slaves
scp -r /app/hadoop-2.8.5/ angel@slave1:/app
scp -r /app/hadoop-2.8.5/ angel@slave2:/app
start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver
jps
jps