(八)大数据实战——hadoop集群组件启动及服务组件配置修改

前言

本节内容我们主要介绍,如何启动hadoop的组件服务,例如hdfs、yarn等,并通过修改自定义配置文件,修改我们组件的配置。关于hadoop组件的部署同上一节内容,如下:

hadoop集群组件分布
hadoop101 hadoop102 hadoop103
HDFS

NameNode

DataNode

DataNode

SecondaryNameNode

DataNode

YARN NodeManager ResourceManager NodeManager NodeManager

正文

  • hadoop服务组件的配置文件

①hadoop服务默认配置文件说明

文件名称 默认存放位置 说明
core-default.xml hadoop-common-3.1.3.jar/core-default.xml 核心配置文件
hdfs-default.xml hadoop-hdfs-3.1.3.jar/hdfs-default.xml hdfs组件配置文件
yarn-default.xml hadoop-yarn-common-3.1.3.jar/yarn-default.xml yarn组件配置文件
mapred-default.xml hadoop-mapreduce-client-core-3.1.3.jar/mapred-default.xml MapReduce组件配置文件

②在/opt/module/hadoop-3.1.3/etc/hadoop目录下修改hadoop自定义配置文件

a.使用vi编辑器修改core-site.xml核心配置文件






 fs.defaultFS
 hdfs://hadoop101:8020




 hadoop.tmp.dir
 /opt/module/hadoop-3.1.3/data




 hadoop.http.staticuser.user
 hadoop


(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第1张图片

b.使用vi编辑器修改hdfs-site.xml配置文件



	dfs.namenode.http-address
	hadoop101:9870



	dfs.namenode.secondary.http-address
	hadoop103:9868

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第2张图片

c.使用vi编辑器修改yarn-site.xml配置文件



	yarn.nodemanager.aux-services
	mapreduce_shuffle




	yarn.resourcemanager.hostname
	hadoop102




	yarn.nodemanager.env-whitelist
	JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第3张图片

d.使用vi编辑器修改mapred-site.xml 配置文件



	mapreduce.framework.name
	yarn

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第4张图片

e.配置workers

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第5张图片

③分发修改的配置文件到hadoop102与hadoop103服务器

命令:hsync /opt/module/hadoop-3.1.3/etc/hadoop

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第6张图片

  • 将hadoop集群的root账号切换到hadoop账号,实现hadoop账户之间的免密登录和文件共享

①hadoop集群服务器全部切换到hadoop账户下,实现hadoop账户下的免密登录 ,所有hadoop服务器都执行此项操作

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第7张图片

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第8张图片②在hadoop101服务器上的hadoop账户下创建共享文件脚本

#!/bin/bash
#1. 判断参数个数,此处的传参为文件名称或者目录名称
if [ $# -lt 1 ]
then
 echo Not Enough Arguement!
 exit;
fi


#2. 遍历集群所有机器
for host in hadoop101 hadoop102 hadoop103
 do
 echo ==================== $host ====================
 #3. 遍历所有目录,挨个发送
 for file in $@
         do
         #4. 判断文件是否存在
         if [ -e $file ]
         then
                 #5. 获取父目录
                 pdir=$(cd -P $(dirname $file); pwd)
                 #6. 获取当前文件的名称
                 fname=$(basename $file)
                 ssh $host "mkdir -p $pdir"
                 rsync -av $pdir/$fname $host:$pdir
         else
                echo $file does not exists!
         fi
 done
done

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第9张图片

③在可执行脚本hsync目录/home/hadoop/bin下的hadoop101、hadoop02、hadoop103服务器上分别执行以下命令

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第10张图片

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第11张图片

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第12张图片

  • hadoop服务组件启动

①如果集群是第一次启动,需要在 hadoop101节点格式化NameNode

命令:hdfs namenode -format

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第13张图片

②在hadoop101服务器上启动hdfs

命令:sbin/start-dfs.sh

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第14张图片

③在hadoop102服务器上启动yarn

命令:sbin/start-yarn.sh

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第15张图片

  • 验证hadoop集群 

①访问hdfs地址:http://hadoop101:9870/

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第16张图片

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第17张图片

② 访问2nn的web地址

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第18张图片

③访问yarn的web地址:http://hadoop102:8088/

(八)大数据实战——hadoop集群组件启动及服务组件配置修改_第19张图片

结语

至此,关于hadoop组件启动及自定义配置文件的内容到这里就结束了,我们下期见。。。。。。

你可能感兴趣的:(大数据,#,hadoop,大数据,hadoop)