以hadoop用户登录。
(一)下载hadoop:
命令行输入:wget -c http://mirror.bjtu.edu.cn/apache/hadoop/common/hadoop-1.1.2/hadoop-1.1.2.tar.gz /usr/local/
把hadoop下载到 /home/hadoop目录
(二)解压缩
命令行输入: sudo tar xzf hadoop-1.1.2.tar.gz
(三)重命名
命令行输入:mv hadoop-1.1.2.tar.gz hadoop
(四)配置/etc/profile
命令行终端输入:sudo gedit /etc/profile
适当修改原有内容,添加内容如下:
export JAVA_HOME=/usr/lib/jvm/jdk
export HADOOP_HOME=/home/hadoop/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/lib:$JAVA_HOME/bin
export HADOOP_HOME_WARN_SUPPRESS=1 #忽略hadoop的警告。
(五)配置修改conf/hadoop-env.sh,添加jdk支持
命令行终端输入:sudo gedit hadoop/conf/hadoop-env.sh
启动gedit后,在文档中 设置:
export JAVA_HOME=/usr/lib/jvm/jdk,注意把本行开头的“#”去掉。
(六)修改conf/cor-site.xml配置如下:
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value> //决定namenode
</property>
<property>
<name>Hadoop.tmp.dir</name>
<value>/home/Hadoop/tmp</value> //临时文件,有问题的时候,可以删除
<description>A base for other temporary directories.</description>
</property>
(七)配置conf/hdfs-site.xml,增加下面内容:
<property>
<name>dfs.name.dir</name>
<value>/home/Hadoop/name</value>
<description>namenode持久存储名字空间,事务日志的本地路径 </description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/Hadoop/data</value>
<description>datanode存放数据的路径 </description>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>数据备份的个数,默认是3 </description>
</property>
(八)配置conf/mapred-site.xml内容如下:
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
(九)修改conf/masters,这个决定那个是secondarynamenode ,里边只保留下面的内容
localhost
修改conf/slaves,这个是所有datanode的机器 ,里边只保留下面的内容
localhost
(十) 以root登录,修改 /etc/hosts
里边只保留 127.0.0.1 localhost 这个对应行。
(十一)启动hadoop服务。
回到hadoop用户。
登录:
ssh localhost
格式化hdfs文件系统的namenode
命令行输入:
bin/hadoop namenode -format
启动Hadoop集群
命令行输入:hadoop/bin/start-all.sh
测试方法一:jps,查看结果。显示各个节点情况。
测试方法二:打开浏览器,分别输入以下网址:
http://localhost:50030 (MapReduce的Web页面)
http://localhost:50070 (HDfS的web页面)
如果能成功访问,则说明Hadoop安装成功