Linux 搭建hadoop单机版环境

        利用空闲时间把最近几天学到的东西做个笔记先,^_^o~ 努力!
       Ubuntu 12.04 ;hadoop 1.1. 1,jdk 1.7u11。
     1. 在Ubuntu下安装JDK
         由于使用的是tar包,因此解压后配下环境变量即可。

图片

    2. 安装ssh服务 
       图片 
    3、 建立ssh无密码登录
        a. 创建ssh-key,ssh生成密钥有rsa和dsa两种生成方式,默认情况下采用rsa方式,我采用rsa方式
                   命令: ssh-keygen -t rsa 

        图片 

      b. 进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的; 
        图片 

            验证配置是否成功:ssh localhost 
             当ssh远程登录到其它机器后,现在你控制的是远程的机器,需要执行(exit)退出命令才能重新控制本地主机。 
    3. 安装hadoop 
       将hadoop tar文件放到指定位置,并解压。
        a.打开hadoop/conf/hadoop-env.sh文件,添加JAVA_HOME
     

        
        
        
        
  1. export JAVA_HOME=/home/hlin1234/hlin/jdk1.7 

    b. 打开conf/core-site.xml文件,并配置成图片 c. 打开conf/hdfs-site.xml文件 图片

        d. 打开conf/mapred-site.xml文件 
图片

        e. 打开conf/masters文件,添加作为secondarynamenode的主机名,作为单机版环境,这里只需填写localhost 就Ok了
       f. 打开conf/slaves文件,添加作为slave的主机名,一行一个。作为单机版,这里也只需填写localhost就Ok了  
   4. 在单机上运行hadoop 
       a.格式化hdfs文件系统,初次运行hadoop时一定要有该操作 
      进入hadoop目录执行: 
       

          
          
          
          
  1. ./bin/hadoop namenode -format  
图片
    当你看到上图时,就说明hdfs文件系统格式化成功了。 
      b. 启动bin/start-all.sh
      c. 检测hadoop是否启动成功,jps 命令
 

     如果有Namenode,SecondaryNameNode,TaskTracker,DataNode,JobTracker五个进程,就说明你的hadoop单机版环境配置好了!
            访问 
http://192.168.74.128:50030;

    http://192.168.74.128:50070 

    若成功那就恭喜啦Y(^_^)Y
 

 

你可能感兴趣的:(hadoop)