在CentOs 7 上安装jdk和Hadoop

 1、 找到原有的Java jdk

              java -version
              rpm -qa| grep java

  2、 卸载原有Jdk

            su  root 

            [root@localhost bin]# rpm -e --nodeps java-1.8.0-openjdk
            [root@localhost bin]# rpm -e --nodeps java-1.8.0-openjdk-headless
            [root@localhost bin]# rpm -e --nodeps tzdata-java
            [root@localhost bin]# rpm -e --nodeps javapackages-tools

  3、查看是否卸载成功
            java -version

  4、卸载成功后,创建一个目录(例子:/export/servers)目录
            cd /
            mkdir /export
            cd export
            mkdir servers
            cd servers

这里需要连接到Xshell:   使用终端上传jdk和hadoop安装包
   5、 解压java的jdk:

             tar -zxvf jdk文件版本
              ll  查看
              cd  jdk文件版本
              vi /etc/profile  配置环境变量


             如下:
            export JAVA_HOME=/export/servers/jdk1.8.0_321
            export PATH=$PATH:$JAVA_HOME/bin
            export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
         

           更新配置文件: source /etc/profile
           查看是否配置成功: java -version

       6、解压hadoop文件:

          tar -zxvf hadoop文件版本
          ll  查看
         cd  hadoop文件
          vi /etc/profile  配置环境变量
       

         如下:
         export  HADOOP_HOME=/export/servers/hadoop-3.1.3
         export  PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
         

         更新配置文件: source /etc/profile
         查看是否配置成功: hadoop  -version

  
        7.配置hadoop的三个配置文件。

            1. hadoop-env.sh文件

                 [root@localhost hadoop]# vi hadoop-env.sh
                  将JAVA_HOME路径设置为java_home路径,并删除#
       
            2. core-site.xml文件
         
                 [root@localhost hadoop]# vi core-site.xml
   添加:
           

        
          hadoop.tmp.dir
          /export/servers/hadoop-3.1.3
        

        
          hadoop.tmp.dir
          /export/servers/hadoop-3.1.3
        

         3.hdfs-site.xml文件       

        [root@localhost hadoop]# vi hdfs-site.xml
添加:
       

        
          dfs.relication
          1
        

        
          dfs.namenode.name.dir
          /export/servers/tmp/dfs/name
        
     
        
          dfs.datanode.data.dir
          /export/servers/tmp/dfs/data
        


     4、添加后创建目录:
       /hadoop/tmp/dfs/name
       /hadoop/tmp/dfs/data
     

     5、查看是否成功配置

      hdfs namenode -format    

   8、修改配置文件/etc/profile
       1. vi /etc/profile
           写入:
         

          export HDFS_NAMENODE_USER=root
          export HDFS_DATANODE_USER=root
          export HDFS_SECONDARYNAMENODE_USER=root
          export YARN_RESOURCEMANAGER_USER=root
          export YARN_NODEMANAGER_USER=root


       2. source /etc/profile
       3. start-dfs.sh  运行
       4. start-yarn.sh

你可能感兴趣的:(linux,linux,centos)