分布式文件系统MFS实现存储共享剖析

 编者按:现在,有大量的企业采用共享存储服务器NFS的方式,来对应用数据进行网络存储,但这存在性能瓶颈和单点故障的问题,于是,分布式文件存储管理系统开始流行起来。本文为大家推荐了开源的分布式文件系统MFS,相信对大家有所帮助。

  分布式文件系统MFS(moosefs) 实现存储共享剖析(上)
  
分布式文件系统MFS(moosefs) 实现存储共享剖析(中)
  分布式文件系统MFS(moosefs) 实现存储共享剖析(下)

  【IT168 专稿】由于用户数量的不断攀升,我对访问量大的应用实现了可扩展、高可靠的集群部署(即lvs+keepalived的方式),但仍然有用户反馈访问慢的问题。通过排查个服务器的情况,发现问题的根源在于共享存储服务器NFS。在我这个网络环境里,N个服务器通过NFS方式共享一个服务器的存储空间,使得NFS服务器不堪重负。察看系统日志,全是NFS服务超时之类的报错。一般情况下,当NFS客户端数目较小的时候,NFS性能不会出现问题;一旦NFS服务器数目过多,并且是那种读写都比较频繁的操作,所得到的结果就不是我们所期待的。
  下面是某个集群使用NFS共享的示意图: 

分布式文件系统MFS实现存储共享剖析_第1张图片

  共享存储服务器NFS:存在瓶颈问题

  这种架构除了性能问题而外,还存在单点故障,一旦这个NFS服务器发生故障,所有靠共享提供数据的应用就不再可用,尽管用rsync方式同步数据到另外一个服务器上做NFS服务的备份,但这对提高整个系统的性能毫无帮助。基于这样一种需求,我们需要对NFS服务器进行优化或采取别的解决方案,然而优化并不能对应对日益增多的客户端的性能要求,因此唯一的选择只能是采取别的解决方案了;通过调研,分布式文件系统是一个比较合适的选择。采用分布式文件系统后,服务器之间的数据访问不再是一对多的关系(1个NFS服务器,多个NFS客户端),而是多对多的关系,这样一来,性能大幅提升毫无问题。

为何要选择分布式文件系统MFS?

  到目前为止,有数十种以上的分布式文件系统解决方案可供选择,如lustre,hadoop,PNFS等等。我尝试了PVFS,hadoop,moosefs这三种应用,参看了lustre、KFS等诸多技术实施方法,最后我选择了moosefs(以下简称MFS)这种分布式文件系统来作为我的共享存储服务器。为什么要选它呢?我来说说我的一些看法:
  1、 实施起来简单。MFS的安装、部署、配置相对于其他几种工具来说,要简单和容易得多。看看lustre 700多页的pdf文档,让人头昏吧。
  2、 不停服务扩容。MFS框架做好后,随时增加
服务器扩充容量;扩充和减少容量皆不会影响现有的服务。注:hadoop也实现了这个功能。
  3、 恢复服务容易。除了MFS本身具备高可用特性外,手动恢复服务也是非常快捷的,原因参照第1条。
  4、 我在实验过程中得到作者的帮助,这让我很是感激。

  MFS特性(根据官方网站翻译)


  ★ 高可靠性(数据能被分成几个副本存储在不同的计算机里)
     
  ★ 通过增加计算机或增加新的
硬盘动态扩充可用磁盘空间
  ★ 可以设置删除文件的空间回收时间
  [root@mysql-bk serydir]# mfsgettrashtime bind-9.4.0.tar.gz
  bind-9.4.0.tar.gz: 600
     文件被删除10分钟后(600秒),才真正删除文件,回收磁盘空间。
  ★ 为文件创建快照

MFS文件系统的组成


  1、 元数据服务器。在整个体系中负责管理管理文件系统,目前MFS只支持一个元数据服务器master,这是一个单点故障,需要一个性能稳定的服务器来充当。希望今后MFS能支持多个master服务器,进一步提高系统的可靠性。
  2、 数据
存储服务器chunkserver。真正存储用户数据的服务器。存储文件时,首先把文件分成块,然后这些块在数据服务器chunkserver之间复制(复制份数可以手工指定,建议设置副本数为3)。数据服务器可以是多个,并且数量越多,可使用的"磁盘空间"越大,可靠性也越高。
  3、 客户端。使用MFS文件系统来存储和访问的主机称为MFS的客户端,成功挂接MFS文件系统以后,就可以像以前使用NFS一样共享这个虚拟性的存储了。

 

你可能感兴趣的:(Linux学习笔记)