hadoop安装教程完整版【含配置文件】

准备工作:

1.映射、免密、三台虚拟机能够ping通

1.jdk安装完成,通过java -version命令查看能够正常反馈信息。

2.关闭防火墙 systemctl stop firewalld

       查看防火墙状态:systemctl status firewalld

禁用防火墙:systemctl disable firewalld

3.修改安全策略:

# vi /etc/selinux/config

SELINUX=enforcing 修改为SELINUX=disabled

1.解压

# tar xf  hadoop-2.7.1.tar.gz  -C /usr/local/src/

解压的命令是tar,后面是参数xf   -C 指定解压到哪一个目录下

2.重命名

(这一步可做可不做,但是解压完了的hadoop名字很长,为了方便还是做吧)

  mv hadoop-2.7.1 hadoop 

mv是重命名的操作,语法:mv 原来的名字 新的名字

3.配置环境变量

 配置环境变量的文件是/etc/profile,也可以自己新建一个。我个人习惯把所有的配置文件都放在/etc/profile下面。

vi /etc/profile

进入之后,加入hadoop的环境变量

export HADOOP_HOME=/usr/local/src/Hadoop

【这里是hadoop的安装目录,就是tar -C指定的目录】

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

保存退出后,source /etc/profile  一定要生效!

4.修改配置文件

Hadoop的配置文件在 /usr/local/src/hadoop/etc/hadoop/目录下

需要修改hadoop-env.sh  hdfs-site.xml  core-sie.xml  mapred-site.xml   yarn-site.xml五个配置文件

vi hadoop-env.sh

末尾添加

export JAVA_HOME=/usr/local/src/jdk  (添加jdk的安装路径)

vi hdfs-site.xml  #在文件中和一对标签之间追加以下配置信息

 

 dfs.namenode.name.dir

 file:/usr/local/src/hadoop/dfs/name

 

 

 dfs.datanode.data.dir

 file:/usr/local/src/hadoop/dfs/data

 

 

 dfs.replication

 3

 

vi core-site.xml  #在文件中和一对标签之间追加以下配置信息

 

 fs.defaultFS

 hdfs://192.168.150.81:9000   【注意:这里是自己的ip

 

 

 io.file.buffer.size

 131072

 

 

 hadoop.tmp.dir

 file:/usr/local/src/hadoop/tmp

 

 vi mapred-site.xml

 【在hadoop2中,需要将mapred-site.xml.template复制为mapred-site.xml 但是在hadoop3中不需要】

在文件中一对标签之间追加以下配置信息

 

 mapreduce.framework.name

 yarn

 

 

 mapreduce.jobhistory.address

 master:10020

 

 

 mapreduce.jobhistory.webapp.address

 master:19888

 

vi yarn.site.xml

#在文件中一对标签之间追加以下配置信息

 

 yarn.resourcemanager.address

 master:8032

 

 

 yarn.resourcemanager.scheduler.address

 master:8030

 

 

 yarn.resourcemanager.resource-tracker.address

 master:8031

 

 

 yarn.resourcemanager.admin.address

 master:8033

 

 

 yarn.resourcemanager.webapp.address

 master:8088

 

 

 yarn.nodemanager.aux-services

 mapreduce_shuffle

 

 

 yarn.nodemanager.auxservices.mapreduce.shuffle.class

 org.apache.hadoop.mapred.ShuffleHandler

 

5.修改master文件   【可不做】

vi masters

输入master的ip

6.修改slaves/workers文件

vi slaves/workers

编辑模式下输入slave1 和slave2的ip

【在hadoop2中,这个文件名叫slaves,在hadoop3中,叫workers

7新建目录

mkdir /usr/local/src/hadoop/tmp

mkdir /usr/local/src/hadoop/dfs/name -p

mkdir /usr/local/src/hadoop/dfs/data -p

8.分发

scp -r /usr/local/src/hadoop/ root@slave1:/usr/local/src/

scp -r /usr/local/src/hadoop/ root@slave2:/usr/local/src/

9.slave节点也需要配置环境变量!

配置完了一定要生效一定要生效! source /etc/profile

10 初始化hadoop

cd /usr/local/src/hadoop/  进入这个目录

bin/hdfs namenode –format   bin目录下有初始化的脚本

11 启动

hadoop-daemon.sh start namenode

hadoop-daemon.sh start datanode

hadoop-daemon.sh start datanode

hadoop-daemon.sh start secondarynamenode

12jps验证

jps

13start-all.sh全部启动

stop-all.sh全部停止

你可能感兴趣的:(运维,hadoop)