core-site.xml
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/hadoop/tmp</value> <description>A base for other temporary directories.</description> </property> <property> <name>fs.default.name</name> <value>hdfs://192.168.1.2:9000</value> </property> </configuration>
hdfs-site.xml 这里需要注意name和data的dir的目录权限必须是755,可以通过chmod 755 /hadoop/nameDir来实现
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>/hadoop/nameDir</value> </property> <property> <name>dfs.data.dir</name> <value>/hadoop/dataDir</value> </property> </configuration>
mapred-site.xml
<configuration> <property> <name>mapred.job.tracker</name> <value>192.168.1.2:9001</value> </property> </configuration>
192.168.1.2
slaves 对于namenode机器来说这里需要列出所有slave的ip
192.168.1.3
192.168.1.4
#192.168.1.5
需要关闭所有机器上的防火墙避免出现错误,注意下面的命令可能不好用,最好去机器上通过图形界面关闭它。
redhat
关闭/开启/重启防火墙
/etc/init.d/iptables stop
#start 开启
#restart 重启
还碰到解压缩提示时间戳出错,这种问题一般是文件时间在系统之间之后,修改系统时间即可 例如 date -s 11/31/2010 注意第一个是月第二个是日第三个是年
格式化namenode
bin/hadoop namenode -format
sh bin/start-all.sh
bin/hadoop dfsadmin -report 命令查看集群运行状况,注意可能需要等待一会才能看到正确结果,可能因为namenode和datanode需要一点时间才能建立起连接。
如果碰到启动失败,去看看日志吧,哪里有你需要的答案,默认在log目录,看文件大小不是0的。