【Hadoop-HDFS压测】针对HDFS进行读写性能测试

【Hadoop-HDFS压测】针对HDFS进行读写性能测试

  • 1)测试工具
  • 2)写入数据测试
  • 3)读取数据测试
  • 4)清除数据

1)测试工具

Hadoop自身集成的工具包:hadoop-mapreduce-client-jobclient-3.1.1.jar

注意

1、如果是Apache版本安装的Hadoop默认在lib目录下,如果是CDH版本安装的Hadoop需要自己去对应目录下找。

2、此工具测试需要执行hadoop命令,所以需要在服务器中配置Hadoop环境变量

3、先执行write命令,再执行read命令。

2)写入数据测试

(1)参数说明

  • TestDFSIO:测试任务名称
  • -write:写入命令
  • -nrFiles:文件个数
  • -size:单个文件大小
  • -resFile:测试结果文件日志生成的路径,默认为当前目录下

(2)执行命令

hadoop jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-client-jobclient-3.1.1.7.1.8.0-801-tests.jar TestDFSIO -write -nrFiles 10 -size 10MB -resFile /export/servers/result.log

(3)测试结果

Total MBytes processed:总数据量(文件数量×单个文件大小)

Throughput mb/sec:每秒吞吐量

Average IO rate mb/sec:每秒IO速率

Test exec time sec:执行时间

【Hadoop-HDFS压测】针对HDFS进行读写性能测试_第1张图片

3)读取数据测试

(1)参数说明

  • TestDFSIO:测试任务名称
  • -write:读取命令
  • -nrFiles:文件个数
  • -size:单个文件大小
  • -resFile:测试结果文件日志生成的路径,默认为当前目录下

(2)执行命令

hadoop jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-client-jobclient-3.1.1.7.1.8.0-801-tests.jar TestDFSIO -read -nrFiles 10 -size 2048MB -resFile /export/servers/result3.log

(3)测试结果

Total MBytes processed:总数据量(文件数量×单个文件大小)

Throughput mb/sec:每秒吞吐量

Average IO rate mb/sec:每秒IO速率

Test exec time sec:执行时间

【Hadoop-HDFS压测】针对HDFS进行读写性能测试_第2张图片

4)清除数据

(1)参数说明

  • TestDFSIO:测试任务名称
  • -clean:执行清理命令

(2)执行命令:

hadoop jar /opt/cloudera/parcels/CDH/jars/hadoop-mapreduce-client-jobclient-3.1.1.7.1.8.0-801-tests.jar TestDFSIO -clean

你可能感兴趣的:(Hadoop,hadoop,hdfs,大数据)