[hadoop全分布部署]安装Hadoop、配置Hadoop 配置文件②

‍‍博主:发量不足

个人简介:耐心,自信来源于你强大的思想和知识基础!!

本期更新内容:安装Hadoop、配置Hadoop 配置文件

下篇文章预告:安装Hadoop、配置Hadoop 配置文件③

 

目录

一、配置 core-site.xml 文件参数

二、配置 mapred-site.xml  (Mapreduce参数)

 三、配置 yarn-site.xml


 

一、配置 core-site.xml 文件参数

(1) vi core-site.xml  (集群全局参数)

(2) 在文件中一对标签之间追加以下配置信息      

  

                fs.defaultFS

                hdfs://192.168.196.101:9000

        

        

                io.file.buffer.size

                131072

        

        

                hadoop.tmp.dir

                file:/opt/module/hadoop/tmp

        

[hadoop全分布部署]安装Hadoop、配置Hadoop 配置文件②_第1张图片

 

 

注:IP地址是master的

二、配置 mapred-site.xml  (Mapreduce参数)

(1) cp mapred-site.xml.template mapred-site.xml

(2)  vi mapred-site.xml

(3)  在文件中一对标签之间追加以下配置信息       

 

                mapreduce.framework.name

                yarn

        

        

                mapreduce.jobhistory.address

                master:10020

        

        

                mapreduce.jobhistory.webapp.address

                master:19888

        

[hadoop全分布部署]安装Hadoop、配置Hadoop 配置文件②_第2张图片

 

 

 三、配置 yarn-site.xml

(1) 集群资源管理系统参数

          vi yarn-site.xml  

(2) 在文件中一对标签之间追加以下配置信息       

 

                yarn.resourcemanager.address

                master:8032

        

        

                yarn.resourcemanager.scheduler.address

                master:8030

        

        

                yarn.resourcemanager.resource-tracker.address

                master:8031

        

        

                yarn.resourcemanager.admin.address

                master:8033

        

        

                yarn.resourcemanager.webapp.address

                master:8088

        

        

                yarn.nodemanager.aux-services

                mapreduce_shuffle

        

        

                yarn.nodemanager.aux-services.mapreduce.shuffle.class

                org.apache.hadoop.mapred.ShuffleHandler

        

[hadoop全分布部署]安装Hadoop、配置Hadoop 配置文件②_第3张图片

 

 

你可能感兴趣的:(Linux,hadoop,环境配置,hadoop,大数据,linux,配置,spark)