1.HDFS中的文件块默认保存(C)份。
B.2 A.1 C.3 D.不确定
2.启动集群的顺序为(A)
① start-dfs.sh ② start-yarn.sh
③ mr-jobhistory-daemon.sh start historyserver
A.① ② ③ B.② ① ③ C.③ ② ① D.③ ① ②
3.关闭集群的顺序为(B)
① stop-dfs.sh ②stop-yarn.sh ③ m-jobhistory-daemon.sh stop historyserver
A.① ② ③ B.② ① ③ C.③ ② ① D.① ③ ②
4.YARN监控的默认端口是(B)。
A.50070端口 B.8088端口 C.19888端口 D.8080端口
5.默认端口50070的作用是(A)
A.查看HDFS监控 B.查看YARN监控 C.查看日志监控 D.不确定
6.在Linux下安装NTP服务的命令是(A)
A. yum install ntp B. yum remove ntp C. yum update ntp D. yum list
7.搭建 Hadoop集群的步骤是(A)
①克隆虚拟机
②配置 SSH免密码登录③ 格式化
④修改配置文件
⑤配置时间同步服务
A.④①②⑤③ B.③②①⑤④ C.⑤①③②④ D.②⑤④①③
8.在(A)配置文件里可以修改文件块的副本数。
A. hdfs-site.xml B.slaves D. hadoop-env.sh C. core-site.xml
9 yarn-site.xml文件的作用是(C)
A. 配置 MapReduce框架 B.配置 Hadoop 的HDFS系统的命名
C. 配置YARN 框架 D.保存子节点信息
10. 克隆虚拟机之后需要修改(B)文件。
① /etc/udev/rules.d/70-persistent-net.rules
②/etc/sysconfig/network-scriptd/ifcfg-eth0
③ /etc/sysconfig/network
A.①② B.①②③ C.②③ D.①③
1.下列(A)命令可以显示出HDFS 文件系统中在线的数据节点。
A. hdfs dfsadmin -report -live B. hdfs dfsadmin -report -active
C. hdfs dfsadmin -report-dead D. hdfs dfsadmin -report-decommissioning
2.下列(C)命令可以显示出HDFS目录/user/root/中的内容。
A. hdfs dfs -dir /user/root/ B. hdfs dfs -report /user/root/
C. hdfs dfs -ls /user/root/ D. hdfs dfs -display /user/root/
3.下列( A)命令可以下载HDFS目录/user/root/live.txt。
A. hdfs dfs -get/user/root/live.txt B. hdfs dfs -download /user/root/live.txt
C. hdfs dfs -put /user/root/live.txt D. hdfs dfs -move /user/root/live.txt
4.上传一个大小为500MB的文件 data.txt到以 Hadoop 2.6搭建的集群上。这个文件会占用(B)个HDPS 文件块。
A.3 B. 4 C.5 D.8
5.在 Hadoop官方的示例程序包hadoop-mapreduce-examples-2.6.4.jar中,封装了一些常用的测试模块。可以获得文件中单词长度的中位数的模块是(C)。
A. wordcount B. wordmean C.wordmedian D. wordstandarddeviation
6.向Hadoop集群提交MapReduce任务时,可以使用下列(C)命令。
A.hadoop submit B. hadoop put C. hadoop jar D. mapreduce jar
7.以hadoop jar提交MapReduce任务时,如果命令行中指定的输出目录已经存在,执行的结果将会是(C)。
A. 覆盖原目录 B.自动创建新目录 C.报错并中断任务 D.以上都不是
8.当提交某个 MapReduce 任务后,在任务列表中显示该任务的状态(state)值为"ACCEPTED",这表示(C)
A.正在接受中 B.正在执行中 C.等待执行中D.任务恢复中
1.有多种浏览HDPS文件相录的方式,以下(D)是不对的
A.通过HDFS命今 B.通过Web浏览器
C.通过Eclipse中的Project Explorer D.通过SSH客户端工具
2.在词频统计(WordCount)的执行过程中,( A)模块负责进行单词的拆分与映射。
A. Mapper B. Reducer C. Driver D. Main
3.MapReduce程序最后输出的结果通常都是按键值进行排序的,那么排序工作发生在MapReducer执行过程中的(B)阶段。
A. Map B. Shufle C. Reduce D. Combiner
4.在驱动类中,(C)设置输入数据的格式。
A.使用方法 setOutputFormat B.使用方法 setOutputKeyValue
C.使用方法 setInputFormat D.使用方法 setJarByClass
5.以MapReduce统计学员的平均成绩,如果输出结果的格式为"学生姓名 平均成绩",例如"Alice 89.5",那么通过(D)选用输出键值对格式。
A.job.setOutputKeyClass(Text.class;job.setOutputValueClassText.class);
B.job.setOutputKeyClass(ntWritableclass;job.setOutputValueClassText.class);
C.job.setOutpuKeyClass(Text.class;job.setOutputValueClass(LongWritable.class);
D.job.setOutputKeyClass(Text.class);job.setOutputValueClass(DoubleWritable.class);
6.在 MapReduce程序中,Mapper模块中的自定义类MyMapper 继承自(A)父类。
A. Mapper B. Reducer C. Combiner D. Partitioner
7.在 MapReduce程序中,必须包含的模块有(C)。
A. Mapper、Combiner、Reducer B. setup、Mapper、Reducer
C. Mapper、Reducer D. Mapper、Reducer、cleanup
8.在 MapReduce 程序中,Reducer类中包括的函数有(B)。
A. startup、reduce、end B. setup、reduce、cleanup
C. start、run、reduce、end D. startup、run、end
9.有一组数据(W,2,C,2,8,S,W),如果用MapReduce程序对其中的每个元素进行计数,那么在输出的键值对结果中,键的排列顺序应该是(B)。
A.8、2、C、S、W B.2、8、C、S、W
C.C、S、W、8、2 D.2、8、W、C、S
10.在Job类中对输出键值对格式进行设置时,如果 Mapper的输出格式与Reducer的输出格式一样,那么可以省略下列(B)设置。
A.job.setOutputKeyClass()与job.setOutputValueClss()
B.job.setMapOutputKeyClass()与job.setMapOutputValueClass()
C.job.setReduceOutputKeyClass()与 job.setReduceOutputValueClass()
D.以上都不能省略
1.下列关于Combiner 的描述,正确的是(D)。
A.在 MapReduce 作业流程中可随意添加 Combiner
B.添加了Combiner意味着 MapReduce程序的运行效率得到了优化
C.Combiner 可以代替 Reducer
D.应谨慎使用Combiner
2.下列(B)情况适合添加 Combiner。
A. MapReduce 程序求平均值 B. MapReduce 程序求和
C. MapReduce程序求中位数 D.MapReduce 程序对数据进行排序
3.下列属于 Hadoop 内置数据类型的是( D)。
A. IntegerWritable B. StringWritable C. ListWritable D. MapWritable
4.关于自定义数据类型,下列说法正确的是(D)。
A.自定义数据类型必须继承Writable 接口
B.自定义MapReduce 的key需要继承Writable接口
C.自定义 MapReduce的value需要继承WritableComparable接口
D.自定义数据类型必须实现 readFields(Datalnput datainput)方法
5.设置 MapReduce参数传递的正确方式是(C)
A.通过变量赋值进行传递
B.通过 get()和 set()方法传递
C.通过 conf.set(“argName”,args[n])传递
D.通过 job.set(“argName”,args[n])传递
6.在 Mapper类的setup 函数里,下列(D)方式可以用来获取参数值。
A.Context.get(“argName”)
B.Configuration.get(“argName”)
C.context.getConfiguration.getInt"argName")
D.context.getConfiguration.get(“argName”)
7.Hadoop序列化的特点有(A)。
A.紧凑、快速、互扩展、互操作 B.紧凑、快速 C. 互扩展 D. 互操作
8.下列说法正确的是(C)。
A.Combiner发生在 Reduce 端
B.MapReduce默认的输入格式是KeyValuelnpuFormat
C.Partitioner 的作用是对 key进行分区
D.自定义值类型需要实现 WritableComparable接口
9.MapReduce默认的输出格式是(B)
A. SequenceFileOutputFormat B. TextOutputFormat
C. NullOutputFormat D. MapFileOutputFormat
10.Hadoop JavaAPI创建文件夹的方法是(C)。
A. listStatus(Path f)B. delete(Path f)
C. mkdirs(Path f) D. open(Path f)