目录
一、Ceph简介
1、Ceph起源
2、Ceph特点
3、Ceph架构
4、Ceph核心组件介绍
二、3种存储类型对比
1、块存储
2、文件存储
3、对象存储
Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。RedHat及OpenStack都可与Ceph整合以支持虚拟机镜像的后端存储。
(1)高性能
a. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。
b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则(默认3副本);
c. 能够支持上千个存储节点的规模,最新版本支持EB级的数据。
(2)高可用性
a. 副本数可以灵活控制。
b. 支持故障域分隔,数据强一致性。
c. 多种故障场景自动进行修复自愈。
d. 没有单点故障,自动管理。
(3)高可扩展性
a. 去中心化;
b. 扩展灵活,集群管理节点和存储节点可以扩展;
c. 随着节点增加而线性增长;
(4)特性丰富
a. 支持三种存储接口:块存储、文件存储、对象存储;
b. 支持自定义接口,支持多种语言驱动;
(5)基于软件实现,可以利旧现有设备;
支持三种接口:
(1)Monitor
一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据。
(2)OSD
OSD全称Object Storage Device,也就是负责响应客户端请求返回具体数据的进程。一个Ceph集群一般都有很多个OSD。
(3)MDS
MDS全称Ceph Metadata Server,是CephFS服务依赖的元数据服务。
(3)Object
Ceph最底层的存储单元是Object对象,每个Object包含元数据和原始数据。
(4)PG
PG全称Placement Grouops,是一个逻辑的概念,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据。
(5)RADOS
RADOS全称Reliable Autonomic Distributed Object Store,是Ceph集群的精华,用户实现数据分配、Failover等集群操作。
(6)Libradio
Librados是Rados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFS都是通过librados访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。
(7)CRUSH
CRUSH是Ceph使用的数据分布算法,类似一致性哈希,让数据分配到预期的地方。
(8)RBD
RBD全称RADOS block device,是Ceph对外提供的块设备服务。
(9)RGW
RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。
(10)CephFS
CephFS全称Ceph File System,是Ceph对外提供的文件系统服务。
典型设备: 磁盘阵列,硬盘
主要是将裸磁盘空间映射给主机使用的。
优点:
缺点:
使用场景:
docker容器、虚拟机磁盘存储分配、日志存储、文件存储等
典型设备: FTP、NFS服务器
为了克服块存储文件无法共享的问题,所以有了文件存储。在服务器上架设FTP与NFS服务,就是文件存储。
优点:
缺点:
使用场景:日志存储、有目录结构的文件存储。
典型设备: 内置大容量硬盘的分布式服务器(swift, s3)
多台服务器内置大容量硬盘,安装上对象存储管理软件,对外提供读写访问功能。
优点:
使用场景: (适合更新变动较少的数据),如图片存储、视频存储等。