hadoop 2.5 伪分布安装

最新的hadoop2.5 安装目录做了一定修改,安装变得稍微简单一点


首先安装准备工具

 $ sudo apt-get install ssh
  $ sudo apt-get install rsync
配置ssh
 
  
  $ ssh localhost

If you cannot ssh to localhost without a passphrase, execute the following commands:

  $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys


进入etc/hadoop/hadoop-env.sh 配置运行环境

  # set to the root of your Java installation
  export JAVA_HOME=/usr/java/latest

  # Assuming your installation directory is /usr/local/hadoop
  export HADOOP_PREFIX=/usr/local/hadoop

配置hdfs端口和备份数

etc/hadoop/core-site.xml:


    
        fs.defaultFS
        hdfs://localhost:9000
    
#ClientDatanodeProtocol 调用getBlockLocalPathInfo的时候
          dfs.block.local-path-access.user
          infomorrow
     
      
         dfs.replication 
         1 
      
      
         hadoop.tmp.dir 
         /home/infomorrow/hadoop-tmp    
      
 
  

etc/hadoop/hdfs-site.xml:


    
        dfs.replication
        1
    

配置使用yarn


etc/hadoop/mapred-site.xml:


    
        mapreduce.framework.name
        yarn
    

etc/hadoop/yarn-site.xml:

NodeManager 在 启 动 时 加 载shuffle server,shuffle server 实 际 上 是 Jetty/Netty Server,Reduce Task 通 过 该 server 从 各 个NodeManager 上远程复制 Map Task 产生的中间结果


    
        yarn.nodemanager.aux-services
        mapreduce_shuffle
    

启动过程:

hdfs

  1.   $ bin/hdfs namenode -format (初次使用时)
  2.   $ sbin/start-dfs.sh
  3. 进入监控页查看 - http://localhost:50070/
  4. 在hdfs上创建文件夹
      $ bin/hdfs dfs -mkdir /user
      $ bin/hdfs dfs -mkdir /user/
  5. 查看hdfs上创建的文件夹 bin/hadoop fs -ls /
yarn

 
  
  1. $ sbin/start-yarn.sh
  2. 进入监控页查看http://localhost:8088/
关闭:

 
  
 $ sbin/stop-dfs.sh
$ sbin/stop-yarn.sh


bin/hadoop dfsadmin -safemode leave  退出安全模式


如需使用spark 只需在集群节点安装scala,spark,并在spark-env.sh中添加配置

export SCALA_HOME=/home/juxinli/scala-2.11.5
export JAVA_HOME=/usr/lib/jvm/java-8-sun
export HADOOP_HOME=/home/juxinli/hadoop-2.5.0
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop-2.5.0  
export SPARK_JAR=/home/juxinli/spark-1.2.0-bin-hadoop2.4/lib/spark-assembly-1.2.0-hadoop2.4.0.jar


在slaves添加节点主机名

你可能感兴趣的:(hadoop 2.5 伪分布安装)