大数据存储系统对比:Ceph VS Gluster

在分布式存储领域,Ceph和Gluster是两个很常见的开源软件平台,可以用来存储和管理大量数据。在进行技术选型时,对比两者很有必要,它们的区别主要体现在数据存储方式和检索的复杂性上。

Ceph和Gluster都被归类为SDS,即“软件定义的存储”。作为开源软件,它们为用户提供了连接任何已支持软件或硬件的灵活性,而不必担心提供商可能对操作系统施加一些限制。

大数据存储系统对比:Ceph VS Gluster_第1张图片

RedHat的副总裁兼总经理Ranga Rangachari将这两个项目的区别描述为:

Ceph是OpenStack的一个重要部分。在社区中,大多数OpenStack实现都使用Ceph作为存储底层。Gluster则是典型的文件服务、二级存储和深度归档。

简单地说,Ceph和Gluster都提供了强大的存储能力,但是Gluster在更高的级别上表现得很好,可以在短时间内从TB增加到PB级。Ceph确实提供了快速的存储扩展,但是其存储格式适合于用户更频繁访问的短期存储。

概述

Ceph:具有块和文件功能的可扩展对象存储

Gluster:具有对象功能的可扩展文件存储

Ceph使用对象存储,这意味着它将数据存储在分布在许多计算机上的二进制对象中。它利用OpenStack技术构建了一个私有云系统,用户可以在同一个系统中混合非结构化和结构化数据。

Gluster使用块存储,它在连接的Linux计算机的开放空间中以块的形式存储一组数据。它构建了一个高度可扩展的系统,可以访问更传统的存储和文件传输协议,并且可以快速扩展,而且不会出现单点故障。这意味着您可以存储大量旧数据,而不会丢失可访问性或安全性。IOP Science 2014年4月的一项研究显示,Gluster的表现优于Ceph,但仍存在一些不稳定性,可能会导致部分或全部数据丢失。

与文件的交互

两者都使用标准POSIX或NFS接口,用户可以像通过标准文件系统一样与数据进行交互。为你存储的数据提供搜索和检索接口。

Ceph在集群中的计算机之间分发数据,允许用户通过接口一次访问所有数据。在后端,CephFS与集群的不同部分通信并存储数据,而无需太多用户干预。多个客户端也可以访问存储数据,无需干预。

大数据存储系统对比:Ceph VS Gluster_第2张图片

Ceph控制面板,通过Calamari管理和监控系统

Gluster同样将数据分发给连接在一起的计算机,但是数据存储是分块进行的,所有东西都保存在一起。GlusterFS会在任意存储位置为数据找到适当大小的存储区域,放置要存储的数据,并创建一个标识散列。该程序在内核系统上存储数据,不会生成另一个元数据系统,而是为文件创建一个惟一的散列。在没有元数据服务器干扰的情况下,Gluster响应和扩展得比竞争对手要更快,但仍然保持可用性。从界面上看,用户将以目录的形式看到他们的数据块。因为每个文件都有一个惟一的散列,用户必须在重命名之前复制一份,否则就会失去对数据的访问权。

大数据存储系统对比:Ceph VS Gluster_第3张图片

GDash - GlusterFS控制面板

另外

Ceph需要以奇数形式分布在整个系统中的监视节点,以获得仲裁集并减少“裂脑”(split-brain)问题出现和数据丢失的可能性。

Gluster的默认块大小是Ceph的两倍:Gluster是128k, Ceph是64k。Gluster声称增加的块大小可以加快处理速度,但是只要稍做一些工作,就可以增加Ceph的块大小并增加功能。

这两个程序都是开源的,但是企业可以通过购买第三方管理解决方案连接到Ceph和Gluster的。最流行的管理工具分别出自以下厂商:

Ceph:InkTank,RedHat,Decapod,Intel,

Gluster:RedHat

结论

是否使用Ceph和Gluster取决于许多因素,但是两者其中任何一个都可以提供可扩展和稳定的数据存储。寻找易于访问、可以快速纵向扩展的存储空间的企业可能适合使用Ceph。那些计划存储大量数据而不需要太多移动的人可能应该关注一下Gluster。

附:Ceph与GlusterFS对比表格

大数据存储系统对比:Ceph VS Gluster_第4张图片

原文链接请戳了解更多

你可能感兴趣的:(大数据存储系统对比:Ceph VS Gluster)