1、jdk版本的安装
2、ssh安装
(参见转载的Hadoop伪分布式安装中介绍的http://blog.csdn.net/myy1012010626/article/details/20311985
http://blog.csdn.net/myy1012010626/article/details/20919649)
ssh localhost
exit
3、hadoop的安装配置
http://blog.csdn.net/zhaoyl03/article/details/8657104
安装配置中出现的问题:
1)较之前的版本不同,Hadoop2.2.0的配置文件目录/usr/local/hadoop/etc/hadoop中,Hadoop-env.sh及需要配置的文件.xml都在此目录中
2)查看单机是否安装成功
cd /usr/local/hadoop
hadoop version
3)namenode的格式化
还是2)中的目录下进行 bin/hdfs namenode -format
注意:多次namenode的格式化会造成 namenode,datanode的ID号不同,使得jps守护进程不能完全启动,缺少namenode或者datanode
4)怎么解决jps无法完全启动的情况
../Hadoop/hdfs下的data,name文件夹在core-site.xml下进行了设置,
每次启动时需要删除两个文件夹并重新建立空目录,保证ID的一致性
测试:
cd /usr/local/hadoop
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
jps
结果为:jps 、namenode 、datanode
完成了启动
sbin/start-all.sh
jps
结果为:jps 、namenode、 datanode、secondarynamenode,resourcemanger,nodemanger
(注:这里的resourcemanger,nodemanger代替了之前版本的jobtracker、tasktracker)