一、安装linux 环境
OS Linux:CentOS 6.6 64bit
内存 1.5-2GB
硬盘 15-20GB
二、安装JDK 及修改hostname
1、修改hostname
[root@master ~]# vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=master
2、安装JDK
配置两个变量
$JAVA_HOME
$PATH
备注:设置PATH的时候一定要记得加上$PATH: 不然linux常用命令会失效
export PATH=
$PATH:
$JAVA_HOME/bin
三、关闭防火墙
service iptables stop
chkconfig iptables off
四、配置域名解析
vi /etc/hosts
192.168.1.100 master
192.168.1.101 slave1
192.168.1.102 slave2
192.168.1.103 slave3
测试:
ping
五、安装SSH及配置免密码SSH登录(互信)
$ ssh-keygen
$ ssh-copy-id master/slave1/slave2/slave3
六 、安装步骤
下载并解压Hadoop Bundle
配置环境变量
配置Hadoop配置文件
节点分发
格式化NameNode
启动Hadoop
1、配置环境变量
vi .bash_profile
export HADOOP_PREFIX="/home/hadoop/hadoop-2.6.4/"
export PATH=$PATH:$HADOOP_PREFIX/bin
export PATH=$PATH:$HADOOP_PREFIX/sbin
export HADOOP_COMMON_HOME=${HADOOP_PREFIX}
export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}
export HADOOP_HDFS_HOME=${HADOOP_PREFIX}
export YARN_HOME=${HADOOP_PREFIX}
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"
source ~/.bash_profile
2、配置Hadoop配置文件
core-site.xml hdfs-site.xml
mapred-site.xml
yarn-site.xml
hadoop-env.sh和yarn-env.sh
slaves
1、core-site.xml
core-site.xml文件包含了NameNode节点的信息以及NameNode使用的RPC端口。
fs.defaultFS
hdfs://master:8020
true
2、hdfs-site.xml
hdfs-site.xml文件包含HDFS相关的配置信息,包括副本系数,NameNode和DataNode存储数据的目录等。
dfs.replication
1
dfs.namenode.name.dir
file:///home/oracle/hadoop-.6.4/hadoop_data/dfs/name
dfs.datanode.data.dir
file:///home/oracle/hadoop-.6.4/hadoop_data/dfs/data
3.mapred-site.xml
mapreduce.framework.name
yarn
4.yarn-site.xml
yarn.resourcemanager.address
master:8032
yarn.resourcemanager.scheduler.address
master:8030
yarn.resourcemanager.resource-tracker.address
master:8031
yarn.resourcemanager.admin.address
master:8033
yarn.resourcemanager.webapp.address
master:8088
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce_shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.scheduler.class org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler
4.slaves
slave文件包含了所有的从节点的主机名。
slave1
slave2
slave3
3.格式化NameNode
hdfs namenode -format
4.Hadoop Web用户界面
HDFS-NameNode: http://192.168.2.80:50070/
监控HDFS运行指标
查询连接到NameNode的DataNode列表
浏览文件系统
YARN-ResourceManager: http://192.168.2.80:8088/
监控应用程序和集群资源
NodeManager列表
调度器的详情