准备工作:
1.映射、免密、三台虚拟机能够ping通
1.jdk安装完成,通过java -version命令查看能够正常反馈信息。
2.关闭防火墙 systemctl stop firewalld
查看防火墙状态:systemctl status firewalld
禁用防火墙:systemctl disable firewalld
3.修改安全策略:
# vi /etc/selinux/config
SELINUX=enforcing 修改为SELINUX=disabled
# tar xf hadoop-2.7.1.tar.gz -C /usr/local/src/
解压的命令是tar,后面是参数xf -C 指定解压到哪一个目录下
(这一步可做可不做,但是解压完了的hadoop名字很长,为了方便还是做吧)
mv hadoop-2.7.1 hadoop
mv是重命名的操作,语法:mv 原来的名字 新的名字
配置环境变量的文件是/etc/profile,也可以自己新建一个。我个人习惯把所有的配置文件都放在/etc/profile下面。
vi /etc/profile
进入之后,加入hadoop的环境变量
export HADOOP_HOME=/usr/local/src/Hadoop
【这里是hadoop的安装目录,就是tar -C指定的目录】
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
保存退出后,source /etc/profile 一定要生效!
Hadoop的配置文件在 /usr/local/src/hadoop/etc/hadoop/目录下
需要修改hadoop-env.sh hdfs-site.xml core-sie.xml mapred-site.xml yarn-site.xml五个配置文件
①vi hadoop-env.sh
末尾添加
export JAVA_HOME=/usr/local/src/jdk (添加jdk的安装路径)
②vi hdfs-site.xml #在文件中和一对标签之间追加以下配置信息
③vi core-site.xml #在文件中和一对标签之间追加以下配置信息
④ vi mapred-site.xml
【在hadoop2中,需要将mapred-site.xml.template复制为mapred-site.xml 但是在hadoop3中不需要】
在文件中
⑤vi yarn.site.xml
#在文件中
vi masters
输入master的ip
vi slaves/workers
编辑模式下输入slave1 和slave2的ip
【在hadoop2中,这个文件名叫slaves,在hadoop3中,叫workers】
mkdir /usr/local/src/hadoop/tmp
mkdir /usr/local/src/hadoop/dfs/name -p
mkdir /usr/local/src/hadoop/dfs/data -p
scp -r /usr/local/src/hadoop/ root@slave1:/usr/local/src/
scp -r /usr/local/src/hadoop/ root@slave2:/usr/local/src/
配置完了一定要生效一定要生效! source /etc/profile
cd /usr/local/src/hadoop/ 进入这个目录
bin/hdfs namenode –format bin目录下有初始化的脚本
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
jps
stop-all.sh全部停止