centos7环境 jdk1.8+hadoop2.9.0+spark2.2.1

1.安装jdk1.8, rpm安装或者解压 

2.配置jdk环境, vi /etc/profile ,末尾添加

    export JAVA_HOME=/usr/java/jdk1.8.0_121

    export JRE_HOME=${JAVA_HOME}/jre

    export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

    export PATH=${JAVA_HOME}/bin:$PATH

    保存退出, source /etc/profile

3.hadoop安装,下载解压

    1)创建目录结构centos7环境 jdk1.8+hadoop2.9.0+spark2.2.1_第1张图片

    2)查看版本  ./hadoop-2.9.0/bin/hadoop version

    3)修改hadoop-2.9.0/etc/hadoop/core-site.xml,在添加
         
                fs.defaultFS
                hdfs://10.10.110.143:9000
       

       
                io.file.buffer.size
                131072
       

       
                hadoop.tmp.dir
                file:/data/hadoopfile/tmp/
       

    4)修改hadoop-2.9.0/etc/hadoop/hdfs-site.xml,在添加
        
                dfs.namenode.name.dir
                file:/data/hadoopfile/dfs/name
       

       
                dfs.datanode.data.dir
                file:/data/hadoopfile/dfs/data
       

    5)修改hadoop-2.9.0/etc/hadoop/mapred-site.xml,在添加
         
                mapreduce.framework.name 
                yarn
       

       
                 mapreduce.jobhistory.address
                 10.10.110.143:10020
       

       
                 mapreduce.jobhistory.webapp.address
                 10.10.110.143:19888
       

       
                 mapreduce.jobtracker.http.address
                 10.10.110.143:50030
       

       
                 mapred.job.tracker
                 10.10.110.143:9001
       

    6)修改hadoop-2.9.0/etc/hadoop/yarn-site.xml,在添加
        
                 yarn.nodemanager.aux-services
                 mapreduce_shuffle
        

                                                                       
        yarn.nodemanager.aux-services.mapreduce.shuffle.class
                org.apache.hadoop.mapred.ShuffleHandler
         

        
                yarn.resourcemanager.hostname
                10.10.110.143
        

        
        yarn.resourcemanager.address
        10.10.110.143:8032
        

        
        yarn.resourcemanager.scheduler.address
        10.10.110.143:8030
        

        
        yarn.resourcemanager.resource-tracker.address
        10.10.110.143:8031
        

        
        yarn.resourcemanager.admin.address
        10.10.110.143:8033
        

        
        yarn.resourcemanager.webapp.address
        10.10.110.143:8088
       

    7)在hadoop-2.9.0/etc/hadoop/salve 添加 slaves地址

    8)修改hadoop-2.9.0/etc/hadoop/hadoop-env.sh,java_home地址修改为绝对路径

    9)启动hadoop , ./hadoop-2.9.0/sbin/start-all.sh (slaves启动失败参考ssh免密登录)

    10)查看结果  10.10.110.143:50070(网页)  10.10.110.143:8088(yarn环境)

4.spark2.2.1安装

    1)下载解压spark

    2)修改spark/conf/spark-env.sh, 末尾添加

            JAVA_HOME=/usr/java/jdk1.8.0_121   
            SPARK_MASTER_HOST=10.10.110.143      #Master的IP地址,默认的端口为7077

    3)修改spark/conf/slaves, 末尾添加 slaves服务器地址

    4)启动  ./spark/sbin/start-all.sh (slaves启动失败参考ssh免密登录)

    5)查看效果  10.10.10.143:8080

你可能感兴趣的:(linux,大数据,spark,hadoop)