Ceph集群简介:
ceph生态系统架构可以划分为四部分:
1.clients:客户端 (数据用户)
2.cmds: 元数据服务器(缓存和同步分布式元数据)
3.cosd:对象存储集群(将数据和元数据作为对象存储)
4.cmon:集群监视器
CephFS 文件系统客户端挂载有两种模式:Ceph-fuse挂载和内核驱动模块挂载,Ceph-fuse挂载要求操作系统必须是Redhat/Centos6/ubuntu12.04以上版本,不支持Redhat/centos5。内核驱动模块挂载需要Linux kernel 3.14以上版本
#内核驱动挂载
mount -t ceph -o noatime 10.1.250.30:/91U /mnt/cephfs/
#fuse挂载
ceph-fuse -m 10.1.250.30:6789 /data/cephfs  -r /ea
Monitor:
Monitor线程处理集中的集群管理,配置和状态监控。他们是相对来说较轻的线程,用到的数据保存在本地文件系统。需要注意的是,监控线程必须有奇数个。
Ceph mds:
Ceph中的元数据服务器(mds)本质上就是一个满足一致性的分布式元数据缓存,所有的元数据都保存在存储节点上。元数据服务器(线程)能根据需要任意地加入到集群中,负载会自动的在这些服务器间进行平衡。例如可以先启动1到2个,然后根据需要再增加。配置文件中max mds参数控制最多有多少活动线程,额外的线程处于standby状态,如果有活动线程出故障了则standby状态的线程取代之
Ceph osd:
Osd是存储数据和元数据的实际存储节点,最好运行两个osd,其中一个作为另一个的备份。每个osd其实就是一个线程,提供访问本地磁盘的服务。Osd端本地的文件系统最好用BTRFS,但是其他文件系统如ext3也可以.
主配置文件:ceph.conf fetch.conf