Hadoop伪分布式的搭建

这里我使用的hadoop的版本为hadoop2.5.0-cdh5.3.6。传送门:下载地址

安装步骤:
1.创建用户,使用hadoop用户
2.修改主机名以及ssh免密码登录
3.jdk安装

4.hadoop安装

1.1步骤:
1. 使用useradd hadoop添加用户
2. 使用passwd hadoop设置用户密码,密码自拟
3. 给用户赋予使用sudo命令的权限。
4. chmod u+w /etc/sudoers
6. vim /etc/sudoers
7. 在root ALL=(ALL) ALL下面加上一行hadoop ALL=(ALL) ALL。(分隔的是制表符)

8. chmod u-w /etc/sudoers

2.1Hadoop环境搭建-修改主机名以及ssh免密码登录

步骤:(使用hadoop用户登录)
    1. 使用sudo hostname hadoop修改主机名,当前生效,重启后失效。
    2. 使用vim /etc/sysconfig/network修改主机名,重启生效。
    3. 在/etc/hosts文件中添加主机名对于的ip地址。
    4. 使用ssh-keygen -t rsa生成ssh秘钥。dsa
    5. 进入.ssh文件夹,创建authorized_keys文件,并将id_rsa.pub的内容添加到文件中去,修改文件权限为600(必须)。

    6. ssh hh验证

Hadoop伪分布式的搭建_第1张图片


3.1步骤:
    1. 复制jdk压缩包到softs文件夹中
    2. 解压tar -zxvf softs/jdk-7u79-linux-x64.tar.gz
    3. 创建软连接sudo ln -s /home/hadoop/bigdater/jdk1.7.0_79 /usr/local/jdk   
    4. 配置相关环境变量vim ~/.bash_profile: JAVA_HOME, CLASSPATH, PATH。全局生效配置文件/etc/profile。
    5. 使环境变量生效 source ~/.bash_profile

    7. 验证java version/ javac version

Hadoop伪分布式的搭建_第2张图片

Hadoop伪分布式的搭建_第3张图片

4.1Hadoop环境搭建-hadoop安装

步骤:
    1. 下载hadoop安装包并复制到到softs文件夹中。
    2. 解压tar -zxvf softs/hadoop-2.5.0-cdh5.3.6.tar.gz,并创建数据保存文件hdfs(~/bigdater/hadoop-2.5.0-cdh5.3.6/hdfs/)。
    3. 配置hadoop-env.sh mapred-env.sh yarn-env.sh文件
    4. 配置基本环境变量core-site.xml文件
    5. 配置hdfs相关变量hdfs-site.xml文件
    7. 配置mapre相关环境变量mapred-site.xml文件
    8. 配置yarn相关环境变量yarn-site.xml文件
    9. 配置datanode相关变量slaves文件

    10. 配置hadoop相关环境变量

4.11 编辑文件hadoop-env.sh

Hadoop伪分布式的搭建_第4张图片

Hadoop伪分布式的搭建_第5张图片

4.12  mapred-env.sh

Hadoop伪分布式的搭建_第6张图片

4.13  yarn-env.sh


4.14  core-site.xml


        
                fs.defaultFS
                hdfs://hadoop:8020
        
        
                io.file.buffer.size
                131072
        
        
                hadoop.tmp.dir
                /usr/local/softs/hadoop-2.5.0-cdh5.3.6/hdfs/tmp
        

4.15  hdfs-site.xml


        
                dfs.namenode.name.dir
                /usr/local/softs/hadoop-2.5.0-cdh5.3.6/hdfs/name
                 namenode 用来持续存放命名空间和交换日志的本地文件系统路径 
        
        
                dfs.datanode.data.dir
                /usr/local/softs/hadoop-2.5.0-cdh5.3.6/hdfs/data
                 DataNode 在本地存放块文件的目录列表,用逗号分隔 
        
        
                 dfs.replication
                 1
                  设定 HDFS 存储文件的副本个数,默认为1
        
        
                dfs.permissions.enabled
                false
        

4.16 mapred-site.xml


        
                mapreduce.framework.name
                yarn
        

4.17  yarn-site.xml




        
                yarn.nodemanager.aux-services
                 mapreduce_shuffle
        

4.18 修改slaves文件 

    将文件的内容修改为 主机名称

4.19配置hadoop相关环境变量(vim /etc/profile)

#hadoop
export HADOOP_HOME=/usr/local/softs/hadoop-2.5.0-cdh5.3.6/
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_PREFIX
export HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop
export HADOOP_HDFS_HOME=$HADOOP_PREFIX
export HADOOP_MAPRED_HOME=$HADOOP_PREFIX
export HADOOP_YARN_HOME=$HADOOP_PREFIX
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

5. Hadoop环境搭建-hadoop启动

步骤:
    1. 第一次启动hadoop之前需要格式化namenode节点,命令为hadoop namenode -format。
    2. 两种方式启动start-all.sh或者start-hdfs.sh start-yarn.sh。

    3. 查看是否启动成功。

6.Hadoop环境搭建-验证hadoop是否启动成功

步骤:
    1. 验证hadoop是否启动成功有两种方式,第一种:通过jps命令查看hadoop的进行是否启动,第二种:查看web界面是否启动显示正常内容。
     2. 验证hadoop对应的yarn(MapReduce)框架是否启动成功:直接运行hadoop自带的example程序。
使用hadoop自带的mapreduce程序验证:/home/hadoop/bigdater/hadoop-2.5.0-cdh5.3.6/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar
将文件内容添加上去后执行:hadoop jar hadoop-mapreduce-examples-2.5.0-cdh5.3.6.jar wordcount /test.txt output/1234


你可能感兴趣的:(Hadoop)