p41~43
https://www.bilibili.com/video/BV1WY4y197g7/?p=41
所以关于MapReduce和YARN的部署,其实就是2件事情:
主机 | 角色 |
---|---|
node1 | ResourceManager、NodeManager、ProxyServer、JobHistoryServer |
node2 | NodeManager |
node3 | NodeManager |
在 $HADOOP_HOME/etc/hadoop 文件夹内,修改:
su - hadoop
cd /export/server/hadoop/etc/hadoop/
vim mapred-env.sh
在顶部添加以下内容
export JAVA_HOME=/export/server/jdk
export HADOOP_JOB_HISTORYSERVER_HEAPSIZE=1000
export HADOOP_MAPRED_ROOT_LOGGER=INFO,RFA
设置JDK路径
设置JobHistoryServer进程内存为1G
设置日志级别为INFO
vim mapred-site.xml
在
之间添加以下内容
mapreduce.framework.name
yarn
MapReduce的运行框架运行为YARN
mapreduce.jobhistory.address
node1:10020
历史服务器通讯端口为node1:10020
mapreduce.jobhistory.webapp.address
node1:19888
历史服务器端口为node1的19888
mapreduce.jobhistory.intermediate-done-dir
/data/mr-history/tmp
历史信息在HDFS的记录临时路径
mapreduce.jobhistory.done-dir
/data/mr-history/done
历史信息在HDFS的记录路径
yarn.app.mapreduce.am.env
HADOOP_MAPRED_HOME=$HADOOP_HOME
MapRedece HOME设置为HADOOP_HOME
mapreduce.map.env
HADOOP_MAPRED_HOME=$HADOOP_HOME
MapRedece HOME设置为HADOOP_HOME
mapreduce.reduce.env
HADOOP_MAPRED_HOME=$HADOOP_HOME
MapRedece HOME设置为HADOOP_HOME
vim yarn-env.sh
在顶部添加以下内容
export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs
设置JDK路径的环境变量
设置HADOOP_HOME的环境变量
设置配置文件路径的环境变量
设置日志文件路径的环境变量
vim yarn-site.xml
在
之间添加以下内容
yarn.resourcemanager.hostname
node1
ResourceManager设置在node1节点
yarn.nodemanager.local-dirs
/data/nm-local
NodeManager中间数据本地存储路径
yarn.nodemanager.log-dirs
/data/nm-log
NodeManager数据日志本地存储路径
yarn.nodemanager.aux-services
mapreduce_shuffle
为MapReduce程序开启Shuffle服务
yarn.log.server.url
http://node1:19888/jobhistory/logs
历史服务器URL
yarn.web-proxy.address
node1:8089
代理服务器主机和端口
yarn.log-aggregation-enable
true
开启日志聚合
yarn.nodemanager.remote-app-log-dir
/tmp/logs
程序日志HDFS的存储路径
yarn.resourcemanager.scheduler.class
org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler
选择公平调度器
把配置好的文件分发到其他服务器节点中
scp mapred-env.sh mapred-site.xml yarn-env.sh yarn-site.xml node2:`pwd`/
scp mapred-env.sh mapred-site.xml yarn-env.sh yarn-site.xml node3:`pwd`/
常用的进程启动命令如下:
在node1服务器,以hadoop用户执行
start-dfs.sh
start-yarn.sh
jps
mapred --daemon start historyserver
日志文件在/export/server/hadoop/logs,出问题可以查看日志来排查问题。
打开 http://node1:8088 即可看到YARN集群的监控页面(ResourceManager的WEB UI)
三个服务器都关机退出保存快照
su -
init 0
启动:
$HADOOP_HOME/sbin/start-yarn.sh
从yarn-site.xml中读取配置,确定ResourceManager所在机器,并启动它。
读取workers文件,确定机器,启动全部的NodeManager。
在当前机器启动ProxyServer(代理服务器)。
关闭:
$HADOOP_HOME/sbin/stop-yarn.sh
start-yarn.sh
jps
stop-yarn.sh
除了一键启停外,也可以单独控制进程的启停。
$HADOOP_HOME/bin/yarn,此程序也可以用以单独控制所在机器的进程的启停
用法:yarn --daemon (start|stop) (resourcemanager|nodemanager|proxyserver)
yarn --daemon start resourcemanager
yarn --daemon stop resourcemanager
yarn --daemon start nodemanager
yarn --daemon stop nodemanager
yarn --daemon start proxyserver
yarn --daemon stop proxyserver
$HADOOP_HOME/bin/mapred,此程序也可以用以单独控制所在机器的历史服务器的启停
用法:mapred --daemon (start|stop) historyserver
mapred --daemon stop historyserver
mapred --daemon start historyserver
YARN作为资源调度管控框架,其本身提供资源供许多程序运行,常见的有:MapReduce程序、Spark程序、Flink程序
Hadoop官方内置了一些预置的MapReduce程序代码,我们无需编程,只需要通过命令即可使用。
常用的有2个MapReduce内置程序:
这些内置的示例MapReduce程序代码,都在:
$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar 这个文件内。
cd /export/server/hadoop/share/hadoop/mapreduce/
ll
cd
可以通过 hadoop jar 命令来运行它,提交MapReduce程序到YARN中。
语法: hadoop jar 程序文件 java类名 [程序参数] … [程序参数]
单词计数示例程序的功能很简单:
我们可以准备一份数据文件,并上传到HDFS中。
hadoop it bigdata hello world
hello bigdata hdfs
it is hadoop hdfs
hdfs mapreduce yarn
hadoop yarn
将上面内容保存到Linux中为words.txt文件,并上传到HDFS
start-dfs.sh
vim words.txt
hadoop fs -mkdir -p /input
hadoop fs -mkdir /output
hadoop fs -ls /
hadoop fs -put words.txt /input/
hadoop fs -ls /input/
执行如下命令,提交示例MapReduce程序WordCount到YARN中执行
start-yarn.sh
mapred --daemon start historyserver
hadoop jar /export/server/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar wordcount hdfs://node1:8020/input hdfs://node1:8020/output/wc
注意:
参数wordcount,表示运行jar包中的单词计数程序(Java Class)
参数1是数据输入路径(hdfs://node1:8020/input/wordcount/)
参数2是结果输出路径(hdfs://node1:8020/output/wc), 需要确保输出的文件夹不存在
提交程序后,可以在YARN的WEB UI页面看到运行中的程序(http://node1:8088/cluster/apps)
执行完成后,可以查看HDFS上的输出结果
hadoop fs -ls /output/wc
hadoop fs -cat /output/wc/*
执行完成后,可以借助历史服务器查看到程序的历史运行信息
ps:如果没有启动历史服务器和代理服务器,此操作无法完成(页面信息由历史服务器提供,鼠标点击跳转到新网页功能由代理服务器提供)
点击logs链接,可以查看到详细的运行日志信息。
此功能基于:
所以,如果发现无法查看程序运行历史以及无法查看程序运行日志信息,请检查上述1、2、3是否都正确设置。
可以执行如下命令,使用蒙特卡罗算法模拟计算求PI(圆周率)
hadoop jar /export/server/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar pi 3 1000
参数pi表示要运行的Java类,这里表示运行jar包中的求pi程序
参数3,表示设置几个map任务
参数1000,表示模拟求PI的样本数(越大求的PI越准确,但是速度越慢)