ceph分布式存储学习指南 实战

1、安装完虚拟机后,更改名字,设置/etc/hosts文件
2、ceph-deploy工具部署


ceph分布式存储学习指南 实战_第1张图片
image.png

3、ceph-deploy要和其他服务器SSH登录
4、所有节点添加EPEL仓库
5、yum install -y ceph-deploy


ceph分布式存储学习指南 实战_第2张图片
image.png

6、将ceph安装到所有节点:emperor为版本号
ceph-deploy install --release emperor ceph-node1 ceph-node2 ceph-node3
7、检查: ceph -v /ceph status

8、创建monitor: ceph-deploy mon create-initial
9、ceph-node1创建OSD


ceph分布式存储学习指南 实战_第3张图片
image.png

ceph分布式存储学习指南 实战_第4张图片
image.png

10、ceph集群最少需要一个monitor处于运行状态。要提高高可用性,需要大于1的奇数个monitor,3个或5个。它使用paxos算法维护多数仲裁。
11、关闭防火墙或开通某些端口
12、ceph-deploy mon create ceph-node2
ceph-deploy mon create ceph-node3
检查状态:ceph status
13、所有节点配置NTP
ceph分布式存储学习指南 实战_第5张图片
image.png

14、再增加OSD节点
ceph分布式存储学习指南 实战_第6张图片
image.png

15、ceph status

monmap :6789
osdmap: 9 osds: 9 up 9 in
gpmap:192 pgs,3pools, 192 active+clean


ceph分布式存储学习指南 实战_第7张图片
image.png

ceph部署
ceph monitor:单核2GB内存

升级
步骤


ceph分布式存储学习指南 实战_第8张图片
image.png

yum update ceph
service ceph restart mon
yum update ceph
service ceph restart osd

ceph操作及管理
service ceph start mon
service ceph -a start mon
service ceph start osd
service ceph start mds
service ceph stop mon
service ceph -a stop mon
service ceph -a start
service ceph -a stop
service ceph start osd.O
service ceph status osd.O
service ceph stop osd.O

要扩展OSD直接添加就行


image.png

缩容


ceph分布式存储学习指南 实战_第9张图片
image.png

ceph分布式存储学习指南 实战_第10张图片
image.png

ceph分布式存储学习指南 实战_第11张图片
image.png

ceph分布式存储学习指南 实战_第12张图片
image.png

ceph分布式存储学习指南 实战_第13张图片
image.png

ceph分布式存储学习指南 实战_第14张图片
image.png

ceph status

crush map文件包含:
crush map设备里列表:
device 0 osd .O
dev、ce 1 osd.l
devi ce 2 osd.2
device 3 osd.3
device 4 osd .4
devi ce 5 osd . 5
devi ce 6 osd.6
devi ce 7 osd.7
device 8 osd.8
Crush map bucket 类型:

types

type 0 osd
type 1 host
type 2 rack
type 3 row
type 4 room
type 5 datacenter
type 6 root
Crush map bucket 定义:


ceph分布式存储学习指南 实战_第15张图片
image.png

ceph分布式存储学习指南 实战_第16张图片
image.png

Crush map 规则:


ceph分布式存储学习指南 实战_第17张图片
image.png

ceph分布式存储学习指南 实战_第18张图片
image.png

一个SSD池,一个SATA池配置
ceph分布式存储学习指南 实战_第19张图片
image.png

ceph分布式存储学习指南 实战_第20张图片
image.png

ceph分布式存储学习指南 实战_第21张图片
image.png

ceph分布式存储学习指南 实战_第22张图片
image.png

ceph分布式存储学习指南 实战_第23张图片
image.png

ceph分布式存储学习指南 实战_第24张图片
image.png

查看ceph的健康状态:ceph health


ceph分布式存储学习指南 实战_第25张图片
image.png

ceph health detail 查看集群健康状态


ceph分布式存储学习指南 实战_第26张图片
image.png

ceph -w 实时输出集群事件信息
ceph分布式存储学习指南 实战_第27张图片
image.png

集群容量:ceph df
集群状态: ceph status
获取密钥:ceph auth list
监控MON:


image.png

检查MON的选举状态:ceph quorm_status
查看OSD:ceph osd dump
查看黑名单:ceph osd blacklist ls
查看CRUSH MAP:ceph osd crush dump
查看规则:ceph osd crush rule list
ceph osd crush ru1e dump < crush_ru1e_name>
查找: ceph osd find
PG健康状态:active+clean
peering: 在peering 状态下, OSD 的PG 都处在actlOg 集合中,存储PG 的副本,井
保持PG 中的对象和元数据状态一致。在peenng 操作完成后,存储PG 的所有OS D
都彼此确认当前状态。
active : 在peering 操作完成后, Ceph 将PG 状态置为active 。处在acttve 状态,说
明主PG 及其副本中的数据都处于能够提供1/0 操作的状态。
clean: 在clean 状态下,主OSD 和副本O SD 已经成功彼此确认,所有PG 都处在
正确的位置上,没有发生偏移,而且所有对象都复制好正确的副本数。
degraded :一旦有OSD 处于down 状态. Ceph 将分配到该OSD 上的所有PG 状态
变为degraded 状态。在OSD 重新处于叩状态之后,它将再次执行peer 操作使得所
有处于degraded 状态的PG 变为c lean 。如果OSD 持续处于down 状态超过300s 后,
它的状态将变为out ,此时Ceph 将会从副本中恢复所有处于degraded 状态的PG 以维持复制数。即使PG 处于degraeded 状态,客户端依然可以执行1/0 操作。还有一
个可能使得PG 状态变为degraded 的原因,这就是当一个PG 内的一个或多个对象变
得不可用时。Ceph 假设对象应该存在于PG 中,但实际上它并不可用。在这种情况
下, Ceph 将该PG 的状态标记为degraded 并试图从其副本中恢复PG
recovering :当一个OSD 处于down 状态后,其PG 的内容将会落后于放置在其他
OSD 上的副本PG 的数据。这样一旦OSD 恢复up 状态, Ceph 会针对这些PG 启动
恢复操作,使得它们的数据与其他OSD 上的PG 副本保持一致。
backfilling : 一旦一个新的OSD 添加到集群巾, Ceph 通过移动来自其他OSD 的一
些PG 到这个新的OSD 以试图再次平衡数据;这个过程称为backfill ing 。一旦PG 的
backfilling 操作完成, OSD 可以参与到客户端的1/0 操作中。Ceph 会在后俞平滑地
执行backfì 11 i ng ,以确保不会使得集群超载。
remapped : 每当PG 的actmg 集合有变化,就会触发数据迁移,数据从老的acting
集舍OSD 向新的acting 集合OSD 转移。根据需要迁移到新的OSD 的数量大小,眩
操作可能需要一些时间。在这段时间里,依然由老的acting 组内的老的主副本OSD
为客户端请求提供服务。一旦数据迁移操作完成, Ceph 使用acting组中的新主副本OSD。
stale: Ceph OSD 会每隔0.5s 向Ceph monitor 报告其统计结果。任何时候,如果PG
acting 组的主副本OSD 没有成功向monitor 报告统计结果,或者其他OSD 报告它们
的主副本OSD 状态变为down 状态monitor 将考虑这些PG 已经处于stale 状态。
获取pg状态:ceph pg stat
ceph pg dump //pg列表
ceph pg 2.7d query
根据状态查看:ceph pg dump_ stuck unclean
mds:ceph mds stat/ceph mds dump

监控平台:kraken\ceph-dash\calamari

性能调优
配置文件:
public network =192.168.100.0/24
cluster network = 192 . 168.1.0/24 //集群网络建议10GB/s
操作系统文件打开数:max open files =131072
OSD参数调优


ceph分布式存储学习指南 实战_第28张图片
image.png

ceph分布式存储学习指南 实战_第29张图片
image.png

ceph分布式存储学习指南 实战_第30张图片
image.png

ceph分布式存储学习指南 实战_第31张图片
image.png

ceph分布式存储学习指南 实战_第32张图片
image.png

ceph分布式存储学习指南 实战_第33张图片
image.png

ceph分布式存储学习指南 实战_第34张图片
image.png

client参数调优


ceph分布式存储学习指南 实战_第35张图片
image.png

操作系统参数调优:
ceph分布式存储学习指南 实战_第36张图片
image.png

ceph分布式存储学习指南 实战_第37张图片
image.png

你可能感兴趣的:(ceph分布式存储学习指南 实战)