安装hadoop1.0.3笔记

 
core-site.xml

<configuration>
    <property> 
        <name>hadoop.tmp.dir</name> 
        <value>/hadoop/tmp</value> 
        <description>A base for other temporary directories.</description> 
    </property> 
    <property> 
        <name>fs.default.name</name> 
        <value>hdfs://192.168.1.2:9000</value> 
    </property> 
</configuration>


hdfs-site.xml 这里需要注意name和data的dir的目录权限必须是755,可以通过chmod 755 /hadoop/nameDir来实现

<configuration>
    <property>
         <name>dfs.replication</name>
         <value>1</value>
     </property>
    <property>
         <name>dfs.name.dir</name>
         <value>/hadoop/nameDir</value>
     </property>
    <property>
         <name>dfs.data.dir</name>
         <value>/hadoop/dataDir</value>
     </property>
</configuration>


mapred-site.xml

<configuration>
    <property> 
        <name>mapred.job.tracker</name> 
        <value>192.168.1.2:9001</value> 
    </property> 
</configuration>


masters 这里需要注意所有机器的这个文件都要是这个

192.168.1.2

slaves 对于namenode机器来说这里需要列出所有slave的ip

192.168.1.3
192.168.1.4
#192.168.1.5


需要关闭所有机器上的防火墙避免出现错误,注意下面的命令可能不好用,最好去机器上通过图形界面关闭它。

redhat
关闭/开启/重启防火墙
/etc/init.d/iptables stop  
#start 开启  
#restart 重启  


还碰到解压缩提示时间戳出错,这种问题一般是文件时间在系统之间之后,修改系统时间即可 例如 date -s 11/31/2010    注意第一个是月第二个是日第三个是年


格式化namenode

bin/hadoop namenode -format 
sh bin/start-all.sh 


 bin/hadoop dfsadmin -report       命令查看集群运行状况,注意可能需要等待一会才能看到正确结果,可能因为namenode和datanode需要一点时间才能建立起连接。


如果碰到启动失败,去看看日志吧,哪里有你需要的答案,默认在log目录,看文件大小不是0的。




你可能感兴趣的:(安装hadoop1.0.3笔记)