012 Yarn的ha配置和测试

(要先看hdfs的ha配置再看这个 这个·有很多省略 上一篇说的比较详细)

官网配置网址
http://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerHA.html

仍然使用notepad++的插件功能
连接hadoop01
然后找到usr下的local下的hadoop-2.7.1下的etc下的hadoop的yarn-site.xml
012 Yarn的ha配置和测试_第1张图片
012 Yarn的ha配置和测试_第2张图片
yarn-site.xml
将官网的配置复制 然后修改一下






  yarn.resourcemanager.ha.enabled
  true



  yarn.resourcemanager.cluster-id
  qfyarn



  yarn.resourcemanager.ha.rm-ids
  rm1,rm2



  yarn.resourcemanager.hostname.rm1
  hadoop01



  yarn.resourcemanager.hostname.rm2
  hadoop02



  yarn.resourcemanager.webapp.address.rm1
  hadoop01:8088



  yarn.resourcemanager.webapp.address.rm2
  hadoop02:8088



  yarn.resourcemanager.zk-address
  hadoop01:2181,hadoop02:2181,hadoop03:2181




然后还要改一个文件
mapred-site.xml.template
将其改名为mapred-site.xml

有个错误 先别复制 看看下面测试的时候(测试这个文件的单词数目统计)改了 先看看再复制

012 Yarn的ha配置和测试_第3张图片
然后打开我们备份的那个mapred-site.xml
012 Yarn的ha配置和测试_第4张图片
复制其中一小段内容到我们正在配置的mapred-site.xml
012 Yarn的ha配置和测试_第5张图片



mapreduce.framework.name
yarn
true

这样就行了
我们
接下来
远程发送这两个文件(在01下先进入hadoop-2.7.1)

scp -r ./etc/hadoop/mapred-site.xml ./etc/hadoop/yarn-site.xml hadoop02:/usr/local/hadoop-2.7.1/etc/hadoop/

在这里插入图片描述

然后应该做ssh免登陆
因为配置hdfs的ha做过 所以我们就不用做了

然后直接启动

start-yarn.sh

在这里插入图片描述
01jps一下
012 Yarn的ha配置和测试_第6张图片
因为02没有启动ResourceManager
我们手动启动
02
012 Yarn的ha配置和测试_第7张图片

03
012 Yarn的ha配置和测试_第8张图片

然后我们看一下web ui
http://192.168.37.111:8088/
012 Yarn的ha配置和测试_第9张图片
点击about 看状态是active
012 Yarn的ha配置和测试_第10张图片
我们再看一下02的状态
是standby
012 Yarn的ha配置和测试_第11张图片

我们测试一下上传下载文件
01下 写个文件里面随便加点东西
在这里插入图片描述
然后上传到hfds的根目录下

hdfs dfs -put /home/words /

在这里插入图片描述
然后

yarn jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /words /out/00

测试这个文件的单词数目统计
看看能不能用


结果出错了 原来是shuffle没配
找备份的yarn.site的这一段 配置到新的hadoop下的yarn.site
如图
012 Yarn的ha配置和测试_第12张图片



yarn.nodemanager.aux-services
mapreduce_shuffle

这样的错误了话
需要重新scp分发这个文件到02 03
先关闭yarn

stop-yarn.sh

然后进入hadoop-2.7.1目录
然后分发

scp ./etc/hadoop/yarn-site.xml hadoop02:/usr/local/hadoop-2.7.1/etc/hadoop/

hadoop-2.7.1]# scp ./etc/hadoop/yarn-site.xml hadoop03:/usr/local/hadoop-2.7.1/etc/hadoop/

012 Yarn的ha配置和测试_第13张图片
然后再次启动
启动之前
查看01 jps
012 Yarn的ha配置和测试_第14张图片
02 还有ResourceManager 关闭这个进程服务
012 Yarn的ha配置和测试_第15张图片
正式启动01下

start-yarn.sh

然后在02下手动启动ResourceManger

yarn-daemon.sh start resourcemanager

然后jps01
012 Yarn的ha配置和测试_第16张图片
02
012 Yarn的ha配置和测试_第17张图片
然后重新运行yarn jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /words /out/03
记得改下目录 不该就报已经存在的错误 我就报错了

012 Yarn的ha配置和测试_第18张图片
这样就完了
然后查看内容hdfs dfs -cat /out/03/part-r-00000
012 Yarn的ha配置和测试_第19张图片


最后测试是否是高可用 关闭active的rm 然后查看是否正常
杀死01的resourcemanager
012 Yarn的ha配置和测试_第20张图片
然后01 02的web ui分别刷新下
01的已经访问不了了
02的状态改为active了
测试成功

012 Yarn的ha配置和测试_第21张图片
然后再跑一边测试单词数的 记得改输出文件名 在01下跑就行
测试成功
在这里插入图片描述
等待跑完
012 Yarn的ha配置和测试_第22张图片
查看 没问题
012 Yarn的ha配置和测试_第23张图片
到此为止 yarn的高可用搭建完毕

你可能感兴趣的:(大数据)