大数据环境搭建-之-hadoop 2.x分布式部署-集群配置


1、 下载hadoop 并解压

2、为 hadoop 文件分配角色

      chown -R hadoop:hadoop hadoop

                       组名:角色名    文件名

3、ls -l 查看详细信息  角色分配是否成功

4、创建hadoop 需要的文件目录

     mkdir -p /data/dfs/name

     mkdir -p /data/dfs/data

     mkdir -p /data/tmp

5、 分配角色 权限给自己的用户目录,如hadoop用户

     chown -R hadoop:hadoop hadoop/data

 6、 ls -l 查看是否分配成功

 7、修改hadoop 配置文件

       a、 core-site.xml

       b、hdfs-site.xml

       c、mapred-site.xml

       d、slave

 8、配置hadoop 环境变量

        HADOOP_HOME=/usr/java/hadoop

        PATH=$HADOOP_HOME/bin:$PATH

        export HADOOP_HOME PATH

 9、格式化hadoop    bin/hadoop namenode -format

10 、启动hadoop     sbin/start-all.sh

11、jps  查看进程是否启动

        NodeManager

        ResourceManager

        Jps

        DataNode

        NameNode

        SecondaryNameNode

12、hdfs 创建目录

        bin/hadoop  fs -mkdir /dajiangtai

13、hdfs 的dajiangtai目录添加文件

        hadoop fs -put /usr/java/hadoop/djt.txt /dajiangtai            

14、验证地址

    http://cjqlinux:8088/cluster/apps

    http://cjqlinux:50070


你可能感兴趣的:(hadoop,部署,分布式)