一. 配置机器名
配置/etc/hosts和/etc/sysconfig/network
注意:NameNode的hosts文件必须有其slaves指定的所有节点的机器名
二. ssh设置 (hadoop中需要在namenode 和 datanode 中直接连接集群内的机器,需要配置ssh)
NameNode节点运行
scp ~/.ssh/authorized_keys [email protected]:~/.ssh/temp
配置结束后,可以在NameNode上执行
ssh DataNode机器名
来验证配置是否成功
JAVA_HOME=/home/hadoop/jdk1.6.0_21 export JAVA_HOME PATH=$JAVA_HOME/bin:$PATH export PATH export HADOOP_DEV_HOME=/home/hadoop/hadoop-0.23.0 export HADOOP_MAPRED_HOME=${HADOOP_DEV_HOME} export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME} export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME} export YARN_HOME=${HADOOP_DEV_HOME} export PATH=$HADOOP_DEV_HOME/bin:$HADOOP_DEV_HOME/sbin:$PATH
四. 其他:
Hadoop-0.23的配置文件默认在etc/hadoop下,具体参数请参考附件core-site.xml和hdfs-site.xml
每个NameNode的slaves文件可以不一样,就是说可能一个集群中,某NameNode管理4个节点,某NameNode管理2个节点
http://NameNode IP:50070/dfsclusterhealth.jsp
NameNode IP:50070/
在Hadoop根目录执行
hadoop jar hadoop-mapreduce-examples-0.23.0.jar pi -Dmapreduce.clientfactory.class.name=org.apache.hadoop.mapred.YarnClientFactory -libjars modules/hadoop-mapreduce-client-jobclient-0.23.0.jar 16 10000
如果机器之间连接出问题,可能需要关闭防火墙
service iptables stop
vi /etc/selinux/config
------------------------------------------------------------------------------------------------------
命令补充:
拷贝命令 scp~/.ssh/authorized_keys[email protected]:~/.ssh/temp
scp 源文件 其他机器用户名@IP:目标文件
拷贝文件夹: scp -r ~/bin/jdk1.6.0_21 [email protected]:~/bin/jdk1.6.0_21
scp 是可以拷贝通过配置ssh的两台电脑之间的数据,数据加密,比FTP安全.