ubuntu 10 hadoop 0.20伪分布式配置

安装并运行Hadoop
  介绍Hadoop的安装之前,先介绍一下Hadoop对各个节点的角色定义。
   Hadoop分别从三个角度将主机划分为两种角色。第一,划分为master和slave,即主人与奴隶;第二,从HDFS的角度,将主机划分为 NameNode和DataNode(在分布式文件系统中,目录的管理很重要,管理目录的就相当于主人,而NameNode就是目录管理者);第三,从 MapReduce的角度,将主机划分为JobTracker和TaskTracker(一个job经常被划分为多个task,从这个角度不难理解它们之 间的关系)。
  Hadoop有官方发行版与cloudera版,其中cloudera版是Hadoop的商用版本,这里先介绍Hadoop官方发行版的安装方法。
  Hadoop有三种运行方式:单节点方式、单机伪分布方式与集群方式。乍看之下,前两种方式并不能体现云计算的优势,在实际应用中并没有什么意义,但是在程序的测试与调试过程中,它们还是很有意义的。
  你可以通过以下地址获得Hadoop的官方发行版:
  http://www.apache.org/dyn/closer.cgi/Hadoop/core/
  下载Hadoop-0.20.2.tar.gz并将其解压,这里会解压到用户目录下,一般为:/home/[你的用户名]/。
  单节点方式配置:
  安装单节点的Hadoop无须配置,在这种方式下,Hadoop被认为是一个单独的Java进程,这种方式经常用来调试。
  伪分布式配置:
  你可以把伪分布式的Hadoop看做是只有一个节点的集群,在这个集群中,这个节点既是master,也是slave;既是NameNode也是DataNode;既是JobTracker,也是TaskTracker。
  伪分布式的配置过程也很简单,只需要修改几个文件,如下所示。
  进入conf文件夹,修改配置文件:
Hadoop - env.sh:
export JAVA_HOME
= “你的JDK安装地址”
  指定JDK的安装位置:
conf / core - site.xml:
< configuration >
    
< property >
        
< name > fs.default.name </ name >
        
< value > hdfs: // localhost: 9000 </ value >
    
</ property >
</ configuration >
  这是Hadoop核心的配置文件,这里配置的是HDFS的地址和端口号。
conf / hdfs - site.xml:
< configuration >
    
< property >
        
< name > dfs.replication </ name >
        
< value > 1 </ value >
    
</ property >
</ configuration >
  这是Hadoop中HDFS的配置,配置的备份方式默认为3,在单机版的Hadoop中,需要将其改为1。
conf / mapred - site.xml:
< configuration >
    
< property >
        
< name > mapred.job.tracker </ name >
        
< value > localhost: 9001 </ value >
    
</ property >
</ configuration >
  这是Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。
  需要注意的是,如果安装的是0.20之前的版本,那么只有一个配置文件,即为Hadoop-site.xml。
  接下来,在启动Hadoop前,需格式化Hadoop的文件系统HDFS(这点与Windows是一样的,重新分区后的卷总是需要格式化的)。进入Hadoop文件夹,输入下面的命令:
bin / Hadoop NameNode - format
  格式化文件系统,接下来启动Hadoop。
  输入命令:
bin / start - all.sh(全部启动)
  最后,验证Hadoop是否安装成功。
  打开浏览器,分别输入网址:
  http://localhost:50030 (MapReduce的Web页面)
  http://localhost:50070 (HDFS的Web页面)
  如果都能查看,说明Hadoop已经安装成功。
  对于Hadoop来说,安装MapReduce及HDFS都是必须的,但是如果有必要,你依然可以只启动HDFS(start-dfs.sh)或MapReduce(start-mapred.sh)。

原文链接:http://tech.it168.com/a2013/0127/1450/000001450989.shtml
参考:http://blog.chinaunix.net/uid-20104120-id-3410557.html
      http://www.cnblogs.com/tippoint/archive/2012/10/23/2735532.html

你可能感兴趣的:(hadoop,安装,配置,伪分布式)