本文使用版本hadoop-2.6.5.tar.gz
jdk1.7:linux jdk安装和配置
主机名 系统 IP地址
master centos7 192.168.32.128
slave01 centos7 192.168.32.131
slave02 centos7 192.168.32.132
由于Hadoop启动以后,namenode是通过SSH(Secure Shell)来启动和停止各个节点上的各种守护进程的,这就需要在节点之间执行指令的时候是不需要输入密码的方式,故我们需要配置SSH使用无密码公钥认证的方式。
ssh:SSH免密码登录详解
本文默认使用root用户登录,未新建hadoop专用登录名。
vi /etc/hosts
#配置ip对应名
192.168.32.128 master
192.168.32.131 slave01
192.168.32.132 slave02
vi /etc/hostname
master
三台服务器依次修改,并重启。
以下操作只针对master主机服务器,其他主机服务器类似。
cd /opt/software
tar -zxvf hadoop-2.6.5.tar.gz
cp -r hadoop-2.6.5 /usr/local/hadoop
hadoop解压和拷贝完成
配置系统环境变量
vi /etc/profile
#hadoop
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
退出保存,重启配置
source /etc/profile
cd /usr/local/hadoop/etc/hadoop
vi hadoop-env.sh
#export JAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/usr/local/jdk
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native
export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native/"
退出保存
定位:
cd /usr/local/hadoop
mkdir -p dfs/data
mkdir -p dfs/name
mkdir -p tmp
vi hdfs-site.xml
dfs.namenode.secondary.http-address
master:50090
dfs.replication
3
dfs.namenode.name.dir
file:/usr/local/hadoop/dfs/name
dfs.datanode.data.dir
file:/usr/local/hadoop/dfs/data
vi core-site.xml
fs.defaultFS
hdfs://master:9000
hadoop.tmp.dir
/usr/local/hadoop/tmp
目录默认只有mapred-site.xml.template文件,复制生成mapred-site.xml文件
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
mapreduce.framework.name
yarn
vi yarn-site.xml
yarn.resourcemanager.hostname
master
yarn.nodemanager.aux-services
mapreduce_shuffle
vi slaves
复制master中hadoop文件到slave01和slave02服务器的/usr/local目录
scp -r /usr/local/hadoop root@slave01:/usr/local/hadoop
scp -r /usr/local/hadoop root@slave012:/usr/local/hadoop
类似3.2 分别在salve01和slave02配置系统环境
类似3.3 分别在slave01和slave02新建文件目录
修改core-site.xml文件
将fs.defaultFs对应的value中master修改slave02
salve01修改类似。
#启动
start-all.sh start
#停止
stop-all.sh start
#格式化节点
hadoop namenode -format
或者hdfs namenode -format
在master服务器运行启动命令
进入/usr/local/hadoop目录
4.2.2 启动各个节点
sbin/start-all.sh start
jps查看节点进程
查看节点状态
http://192.168.32.128:50070/dfshealth.html#tab-overview
集群节点使用
http://192.168.32.128:8088/cluster/nodes
至此,hadoop完成分布式集群搭建完毕。