大数据高频面试题-Hadoop相关总结

4.2 Hadoop相关总结

  • 4.2.1 Hadoop常用端口号 
  • 4.2.2 Hadoop配置文件以及简单的Hadoop集群搭建 
  • 4.2.3 HDFS读流程和写流程 
  • 4.2.4 MapReduce的Shuffle过程及Hadoop优化(包括:压缩、小文件、集群优化) 
  • 4.2.5 Yarn的Job提交流程 
  • 4.2.6 Yarn的默认调度器、调度器分类、以及他们之间的区别 
  • 4.2.7 项目经验之LZO压缩 
  • 4.2.8 Hadoop参数调优 
  • 4.2.9 项目经验之基准测试 
  • 4.2.10 Hadoop宕机 

4.2.1 Hadoop常用端口号

  • dfs.namenode.http-address:50070
  • dfs.datanode.http-address:50075
  • SecondaryNameNode辅助名称节点端口号:50090
  • dfs.datanode.address:50010
  • fs.defaultFS:8020 或者9000
  • yarn.resourcemanager.webapp.address:8088
  • 历史服务器web访问端口:19888

 

4.2.2 Hadoop配置文件以及简单的Hadoop集群搭建

(1)配置文件:

core-site.xmlhdfs-site.xmlmapred-site.xmlyarn-site.xml

hadoop-env.shyarn-env.shmapred-env.shslaves

(2)简单的集群搭建过程:

JDK安装

配置SSH免密登录

配置hadoop核心文件: 

格式化namenode

 

4.2.3 HDFS读流程写流程

大数据高频面试题-Hadoop相关总结_第1张图片

大数据高频面试题-Hadoop相关总结_第2张图片

 

4.2.4 MapReduceShuffle过程及Hadoop优化(包括:压缩、小文件集群优化

大数据高频面试题-Hadoop相关总结_第3张图片

大数据高频面试题-Hadoop相关总结_第4张图片

、Shuffle机制

1)Map方法之后Reduce方法之前这段处理过程叫Shuffle

2)Map方法之后,数据首先进入到分区方法,把数据标记好分区,然后把数据发送到环形缓冲区环形缓冲区默认大小100m,环形缓冲区达到80%时进行溢写溢写前对数据进行排序,排序按照key索引进行字典顺序排序,排序的手段快排;溢写产生大量溢写文件,需要对溢写文件进行归并排序;对溢写的文件也可以进行Combiner操作,前提是汇总操作,求平均值不行。最后将文件按照分区存储到磁盘,等待Reduce端拉取。

3)每个Reduce拉取Map端对应分区的数据拉取数据后先存储到内存中,内存不够,再存储到磁盘。拉取所有数据后,采用归并排序将内存和磁盘中的数据都进行排序。在进入Reduce方法前,可以对数据进行分组操作。

、Hadoop优化

0)HDFS小文件影响

(1)影响NameNode的寿命,因为文件元数据存储在NameNode的内存中

(2)影响计算引擎的任务数量,比如每个小的文件都会生成一个Map任务

1)数据输入小文件处理:

(1)合并小文件:对小文件进行归档(Har自定义Inputformat小文件存储成SequenceFile文件。

(2)采用ConbinFileInputFormat来作为输入,解决输入端大量小文件场景。

(3)对于大量小文件Job,可以开启JVM重用

2)Map阶段

(1)增大环形缓冲大小。由100m扩大到200m

(2)增大环形缓冲区溢写的比例。由80%扩大到90%

(3)减少对溢写文件的merge次数

4)不影响实际业务的前提下,采用Combiner提前合并,减少 I/O

3)Reduce阶段

1)合理设置Map和Reduce数:两个都不能设置太少,也不能设置太多。太少,会导致Task等待,延长处理时间;太多,会导致 Map、Reduce任务间竞争资源,造成处理超时等错误。

2)设置Map、Reduce共存:调整slowstart.completedmaps参数,使Map运行到一定程度后,Reduce也开始运行,减少Reduce的等待时间。

3规避使用Reduce,因为Reduce在用于连接数据集的时候将会产生大量的网络消耗。

(4)增加每个Reduce去Map中拿数据的并行数

5)集群性能可以的前提下,增大Reduce端存储数据内存的大小。

4IO传输

(1)采用数据压缩的方式,减少网络IO的的时间。安装Snappy和LZOP压缩编码器

(2)使用SequenceFile二进制文件

5)整体

(1)MapTask默认内存大小为1G,可以增加MapTask内存大小4-5g

2ReduceTask默认内存大小为1G,可以增加ReduceTask内存大小4-5g

(3)可以增加MapTaskcpu核数增加ReduceTaskCPU核数

(4)增加每个ContainerCPU核数和内存大小

(5)调整每个Map Task和Reduce Task最大重试次数

压缩

压缩格式

Hadoop自带?

算法

文件扩展名

支持切分

换成压缩格式后,原来的程序是否需要修改

DEFLATE

是,直接使用

DEFLATE

.deflate

和文本处理一样,不需要修改

Gzip

是,直接使用

DEFLATE

.gz

和文本处理一样,不需要修改

bzip2

是,直接使用

bzip2

.bz2

和文本处理一样,不需要修改

LZO

否,需要安装

LZO

.lzo

需要建索引,还需要指定输入格式

Snappy

否,需要安装

Snappy

.snappy

和文本处理一样,不需要修改

提示:如果面试过程问起,我们一般回答压缩方式为Snappy,特点速度快,缺点无法切分(可以回答在链式MR中,Reduce端输出使用bzip2压缩,以便后续的map任务对数据进行split

四、切片机制

1简单地按照文件的内容长度进行切片

2切片大小,默认等于Block大小

3切片时不考虑数据集整体,而是逐个针对每一个文件单独切片

提示:切片大小公式:max(0,min(Long_max,blockSize))

 

4.2.5 YarnJob提交流程

大数据高频面试题-Hadoop相关总结_第5张图片

 

4.2.6 Yarn的默认调度器、调度器分类以及他们之间的区别

1Hadoop调度器重要分为三类:

FIFO 、Capacity Scheduler(容量调度器)和Fair Sceduler(公平调度器)。

Hadoop2.7.2默认的资源调度器是 容量调度器

2)区别:

FIFO调度器:先进先出,同一时间队列中只有一个任务在执行。

大数据高频面试题-Hadoop相关总结_第6张图片

容量调度器:队列;每个队列内部先进先出,同一时间队列中只有一个任务在执行。队列的并行度为队列的个数。

大数据高频面试题-Hadoop相关总结_第7张图片

公平调度器:队列;每个队列内部按照缺额大小分配资源启动任务同一时间队列中有多个任务执行。队列的并行度大于等于队列的个数。

3一定要强调生产环境中不是使用的FifoScheduler,面试的时侯会发现候选人大概了解这几种调度器的区别,但是问在生产环境用哪种,却说使用的FifoScheduler(企业生产环境一定不会用这个调度的)

大数据高频面试题-Hadoop相关总结_第8张图片

 

4.2.7 项目经验之LZO压缩

Hadoop默认不支持LZO压缩,如果需要支持LZO压缩,需要添加jar包,并在hadoop的cores-site.xml文件中添加相关压缩配置。

 

4.2.8 Hadoop参数调优

1)在hdfs-site.xml文件中配置多目录最好提前配置好,否则更改目录需要重新启动集群

2)NameNode有一个工作线程池,用来处理不同DataNode的并发心跳以及客户端并发的元数据操作。

dfs.namenode.handler.count=20 * log2(Cluster Size),比如集群规模为10台时,此参数设置为60

3)编辑日志存储路径dfs.namenode.edits.dir设置与镜像文件存储路径dfs.namenode.name.dir尽量分开,达到最低写入延迟

4)服务器节点上YARN可使用的物理内存总量,默认是8192(MB),注意,如果你的节点内存资源不够8GB,则需要调减小这个值,而YARN不会智能的探测节点的物理内存总量。yarn.nodemanager.resource.memory-mb

5单个任务可申请的最多物理内存量,默认是8192(MB)。yarn.scheduler.maximum-allocation-mb

 

4.2.9 项目经验基准测试

搭建完Hadoop集群后需要对HDFS读写性能和MR计算能力测试。测试jar包在hadoop的share文件夹下。

 

4.2.10 Hadoop宕机

1)如果MR造成系统宕机。此时要控制Yarn同时运行的任务数,和每个任务申请的最大内存。调整参数:yarn.scheduler.maximum-allocation-mb单个任务可申请的最多物理内存量,默认是8192MB

2)如果写入文件过量造成NameNode宕机。那么调高Kafka的存储大小,控制从Kafka到HDFS的写入速度。高峰期的时候用Kafka进行缓存,高峰期过去数据同步会自动跟上。

 


注:内容源自“尚硅谷”网络公开资源整理

—— 温故而知新,可以为师矣。

 

 

你可能感兴趣的:(大数据知识点梳理,Hadoop)