HDFS文件系统可存储超大文件,时效性稍差
HDFS具有硬件故障检测和自动快速恢复功能
HDFS为数据存储提供很强的扩展能力
HDFS存储一般为一次写入,多次读取,只支持追加写入,不支持随机修改
HDFS可在普通机器上运行
HDFS采用的Master/Slave架构
一个HDFS集群有两个重要的角色,分别是NameNode 和DataNode
HDFS的四个基本组件:HDFS Client、NameNode、DataNode、和SecondaryNameNode
1、Client
就是客户端
文件切分,文件上传HDFS的时候,Client将文件切分成 一个一个的Block,然后进行存储
与NameNode交互,获取文件的位置信息
与DataNode交互,读取或写入数据
Client提供一些命令来管理,和访问HDFS,比如启动或者关闭HDFS。
2、NameNode
就是master,它是一个主管、管理者
管理HDFS元数据(文件路径、文件的大小、文件的名称、文件权限、文件的block切片信息)
配置副本策略
处理客户端读写请求
3、DataNode
就是Slave、NameNode下达命令,DataNode执行实际的操作
存储实际的数据块
执行数据块的读/写操作
定时向NameNode汇报block信息
4、SecondaryNameNode
并非NameNode的热备,当NameNode挂掉的时候,它并不能马上替换
辅助NameNode分担其工作量
在紧急情况下,可辅助恢复NameNode
HDFS被设计成能够在一个大集群中跨机器可靠地存储超大文件,它将每个文件存储成一系列的数据块,这个数据块被称为block,除了最后一个,所有的数据块都是同样大小的。
为了容错,文件的所有block都会有副本,每个文件的数据块大小和副本系数都是可配置的。
Hadoop2当中,文件的block块大小默认128M。
HDFS的Shell命令
安装好hadoop环境后,可以执行hdfs相关的shell命令对hdfs文件系统进行操作,比如文件的创建、删除、修改文件权限等。
对HDFS的操作命令类似于Linux的shell对文件的操作,如ls、mkdir、rm等
hadoop fs
hdfs dfs
ls 命令
格式:hadoop fs -ls URI
作用:类似于Linux的ls命令,显示文件列表
hadoop fs -ls / # 显示文件列表
hadoop fs -ls -R # 递归显示文件列表
mkdir 命令
格式: hadoop fs -mkdir [-p]
作用:以
应用:hadoop fs -mkdir /dir1
hadoop fs -mkdir -p/aaa/bbb/ccc 递归创建
put命令
格式:hadoop fs -put
作用:将单个的源文件或者多个源文件srcs从本地文件系统上传到目标文件系统中
应用:hadoop fs -put /root/1.txt /dir1 #上传文件
hadoop fs -put /root/dir2 / # 上传目录
get命令
格式:hadoop fs -get
作用:将HDFS文件考本到本地文件系统
应用:hadoop fs -get /initial-setup-ks.cfg /opt
mv命令
格式: hadoop fs -mv
作用:将hdfs上的文件从原路径src移动到目标路径dst,该命令不能夸文件系统
应用:hadoop fs -mv /dir1/1.txt /dir2
rm命令
格式:hadoop fs -rm [-r] [-skipTrash] URI [URI 。。。]
作用:
删除参数指定的文件和目录,参数可以有多个,删除目录需要加-r参数
如果指定-skipTrash选项,那么在回收站可用的情况下,该选项将跳过回收站而直接删除文件;
否则,在回收站可用时,在HDFS Shell 中执行此命令,会将文件暂时放到回收站中。
应用:
hadoop fs -rm /initial-setup-ks.cfg #删除文件
hadoop fs -rm -r /dir2 #删除目录
cp命令
格式:hadoop fs -cp
作用:将文件拷贝到目标路径中
应用:hadoop fs -cp /dir1/1.txt /dir2
cat命令
格式:hadoop fs -cat
作用:将参数所指示的文件内容输出到控制台
应用:hadoop fs -cat /dir1/1.txt
HDFS的基准测试
在生产环境搭建后,要进行压力测试,测试集群的读取和写入速度,被称为基准测试。
写入速度测试
向HDFS文件系统中写入数据,10个文件,每个文件10MB,文件存放到/benchmarks/TestDFSIO中
hadoop jar /export/server/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.5.jar TestDFSIO -write -nrFiles 10 -fileSize 10MB
测试读取速度
在HDFS文件系统中读入10个文件,每个文件10M
hadoop jar /export/server/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.5.jar TestDFSIO -read -nrFiles 10 -fileSize 10MB
清除测试数据
hadoop jar /export/server/hadoop-2.7.5/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.5.jar TestDFSIO -clean