hadoop-2.6.5 集群搭建

1、官网下载hadoop-2.6.5.tar.gz 安装包(下载地址:http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop- 2.6.5/hadoop-2.6.5.tar.gz),上传到虚拟机。
2、将hadoop包进行解压缩:tar -zxvf hadoop-2.6.5.tar.gz
3、修改hadoop-env.sh(告诉其java的运行环境):
编辑vim hadoop-2.6.5/etc/hadoop/hadoop-env.sh
修改export JAVA_HOME=/home/linux/java/jdk1.7.0_80
4、配置hadoop相关环境变量:

HADOOP_HOME=/home/linux/hadoop/hadoop-2.6.5
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source /etc/profile
输入hadoop命令,显示以下命令:

hadoop-2.6.5 集群搭建_第1张图片
Paste_Image.png
则hadoop安装成功

修改hadoop-2.6.5/etc/hadoop/core-site.xml文件:

#所有节点都需添加此配置

  fs.default.name
  hdfs://master:9000

hdfs系统会把用到的数据存储在core-site.xml中由hadoop.tmp.dir指定,而这个值默认位于/tmp/hadoop-${user.name}下面, 
由于/tmp目录在系统重启时候会被删除,所以应该修改目录位置。 修改core-site.xml(在所有站点上都修改)

  hadoop.tmp.dir
  /var/hadoop

执行命令:hdfs namenode -format --格式化namenode数据存储目录
创建hadoop/data目录
修改hadoop-2.6.5/etc/hadoop/hdfs-site.xml文件:

#指定数据存储目录
#master站点配置

  dfs.name.dir
  /home/linux/tools/hadoop/data/namenode

slave所有节点配置

  dfs.data.dir
  /home/linux/tools/hadoop/data/datanode


所有站点都配置
  dfs.tmp.dir
  /home/linux/tools/hadoop/data/tmp

#指定数据备份数

  dfs.replication
  2



hadoop集群启动命令:

namenode执行命令:
hadoop-daemon.sh start namenode --启动namenode
datenode执行命令:
hadoop-daemon.sh start datenode --启动datenode
执行命令:jps #查看启动进程

hadoop集群关闭命令:

namenode执行命令:
hadoop-daemon.sh stop namenode --关闭namenode
datenode执行命令:
hadoop-daemon.sh stopdatenode --关闭datenode

--关闭防火墙,命令:systemctl stop firewalld
hadoop集群web监控界面访问地址:http://master:50070

hadoop集群统一管理配置:

修改master节点下/hadoop/etc/hadoop/slaves文件:
vim /hadoop/etc/hadoop/slaves
添加datanode:

node1
node2
node3

在master上执行命令:

start-dfs.sh  #启动整个集群
      (备注:建议对集群配置免密登录(配置方法:http://www.jianshu.com/p/e3308b9c3fbe);
      因为默认启动会远程登录到每个节点上进行启动,包括自身主节点,如果未配置则每次要手动输入每台登录的密码。)
stop-dfs.sh  #关闭整个集群

你可能感兴趣的:(hadoop-2.6.5 集群搭建)