Hadoop入门之HDFS

一、HDFS的概念

HDFS是一个分布式存储系统

二、HDFS的设计目标

1.自动检测硬件错误

2.流式访问数据

3.尽量采用转移计算

4.使用简单一致性数据模型

5.异构平台可移植性

三、HDFS的三个基本概念

1.Block(数据块)

文件分块存储,每个快默认64MB,是文件存储的逻辑单元。

2.NameNode(主节点)

是管理节点,存放元数据,包括文件与数据的映射表和块与节的映射表。

3.DataNode(数据节点)

是工作节点,存放数据块。

四、HDFS的数据管理策略

1.每个数据有三个副本,两份存在一个机架上,一份存在另一个机架上。

2.心跳检测,DataNode定期向NameNode发送心跳信息

3.主节点备份,使用Secondary NameNode

五、HDFS的适用性和局限性

1.适合批量读写,吞吐量高。

2.不适合交互式应用

3.适合一次写入多次读取

4.不适合多用户并发写相同文件

你可能感兴趣的:(hadoop,基础,大数据,hdfs)