产生问题的原因,monitor的时钟同步出现时间偏差,ceph默认偏差大于0.05s就会出现这个报警。
$ ceph health detail
HEALTH_WARN clock skew detected on mon.1, mon.2
mon.1 addr 192.168.0.6:6789/0 clock skew 8.37274s > max 0.05s (latency 0.004945s)
mon.2 addr 192.168.0.7:6789/0 clock skew 8.52479s > max 0.05s (latency 0.005965s)
解决方法:
1:添加配置参数:
vim /etc/ceph/ceph.conf
[mon.ceph-100-80]
host = ceph-100-80
mon_data = /var/lib/ceph/mon/ceph-ceph-100-80/
mon_addr = 172.16.100.80:6789
# 添加内容如下:
mon clock drift allowed = 2 增加时间误差(不推荐)
mon clock drift warn backoff = 30
#同步配置文件
ceph-deploy --overwrite-conf admin ceph-100-{80..82}
#重启mon 服务
/etc/init.d/ceph restart mon
2.一般情况下可以直接重启monitor
systemctl restart ceph-mon@bj-tdxy-ccs-128-65(centos 7)
针对这台机器的所有osd进行以下操作:
ceph osd out {osd.num} 标记为out状态,不让该osd继续承载pg
systemctl stop ceph-osd@{osd.num} 停止osd相关进程 状态变为down
ceph osd crush remove osd.{osd.num} crush map 中删除osd条目
ceph auth del osd.{osd.num} 删除 OSD 认证密钥
ceph osd rm osd.{osd.num} 删除osd
所有的osd节点下线删除之后:
ceph osd crush remove `hostname -s` 将主机条目从crush map中删除
ceph -s 等待集群变为active+clean状态
noin 通常和noout一起用防止OSD up/down跳来跳去
noout MON在过了300秒(mon_osd_down_out_interval)后自动将down掉的OSD标记为out,一旦out数据就会开始迁移,建议在处理故障期间设置该标记,避免数据迁移。
(故障处理的第一要则设置osd noout 防止数据迁移。ceph osd set noout ,ceph osd unset noout)
noup 通常和nodwon一起用解决OSD up/down跳来跳去
nodown 网络问题可能会影响到Ceph进程之间的心跳,有时候OSD进程还在,却被其他OSD一起举报标记为down,导致不必要的损耗,如果确定OSD进程始终正常
可以设置nodown标记防止OSD被误标记为down.
full 如果集群快要满了,你可以预先将其设置为FULL,注意这个设置会停止写操作。
(有没有效需要实际测试)
pause 这个标记会停止一切客户端的读写,但是集群依旧保持正常运行。
nobackfill
norebalance 这个标记通常和上面的nobackfill和下面的norecover一起设置,在操作集群(挂掉OSD或者整个节点)时,
如果不希望操作过程中数据发生恢复迁移等,可以设置这个标志,记得操作完后unset掉。
norecover 也是在操作磁盘时防止数据发生恢复。
noscrub ceph集群不做osd清理
nodeep-scrub 有时候在集群恢复时,scrub操作会影响到恢复的性能,和上面的noscrub一起设置来停止scrub。一般不建议打开。
notieragent 停止tier引擎查找冷数据并下刷到后端存储。
cpeh osd set {option} 设置所有osd标志
ceph osd unset {option} 接触所有osd标志
使用下面的命令去修复pg和osd
ceph osd repair :修复一个特定的osd
ceph pg repair 修复一个特定的pg,可能会影响用户的数据,请谨慎使用。
ceph pg scrub:在指定的pg上做处理
ceph deep-scrub:在指定的pg上做深度清理。
ceph osd set pause 搬移机房时可以暂时停止读写,等待客户端读写完毕了,就可以关闭集群
allow,r,w,x,class-read,class-write,*,profile osd,profile bootstrap-osd
Creating 当创建一个池的时候,Ceph会创建一些PG(通俗点说就是在OSD上建目录),处于创建中的PG就被标记为creating,当创建完之后,那些处于Acting集合
(ceph pg map 1.0 osdmap e9395 pg 1.0 (1.0) -> up [27,4,10] acting [27,4,10],对于pg它的三副本会分布在osd.27,osd.4,osd.10上,那么这三
个OSD上的pg1.0就会发生沟通,确保状态一致)的PG就会进行peer(osd互联),当peering完成后,也就是这个PG的三副本状态一致后,这个PG就会变成active+clean状态,
也就意味着客户端可以进行写入操作了。
Peering peer过程实际上就是让三个保存同一个PG副本的OSD对保存在各自OSD上的对象状态和元数据进行协商的过程,但是呢peer完成并不意味着每个副本都保存着最新的数据。
直到OSD的副本都完成写操作,Ceph才会通知客户端写操作完成。这确保了Acting集合中至少有一个副本,自最后一次成功的peer后。剩下的不好翻译因为没怎么理解。(对象和元数据的状态达成一致的过程。)
Active 当PG完成了Peer之后,就会成为active状态,这个状态意味着主从OSD的该PG都可以提供读写了。
Clean 这个状态的意思就是主从OSD已经成功peer并且没有滞后的副本。PG的正常副本数满足集群副本数。
Degraded 当客户端向一个主OSD写入一个对象时,主OSD负责向从OSD写剩下的副本, 在主OSD写完后,
在从OSD向主OSD发送ack之前,这个PG均会处于降级状态。
而PG处于active+degraded状态是因为一个OSD处于active状态但是这个OSD上的PG并没有保存所有的对象。
当一个OSDdown了,Ceph会将这个OSD上的PG都标记为降级。当这个挂掉的OSD重新上线之后,OSD们必须重新peer。
然后,客户端还是可以向一个active+degraded的PG写入的。当OSDdown掉五分钟后,集群会自动将这个OSD标为out,
然后将缺少的PGremap到其他OSD上进行恢复以保证副本充足,这个五分钟的配置项是mon osd down out interval,默认值为300s。
PG如果丢了对象,Ceph也会将其标记为降级。
你可以继续访问没丢的对象,但是不能读写已经丢失的对象了。
假设有9个OSD,三副本,然后osd.8挂了,在osd.8上的PG都会被标记为降级,
如果osd.8不再加回到集群那么集群就会自动恢复出那个OSD上的数据,在这个场景中,PG是降级的然后恢复完后就会变成active状态。
Recovering Ceph设计之初就考虑到了容错性,比如软硬件的错误。当一个OSD挂了,
它所包含的副本内容将会落后于其他副本,当这个OSD起来之后,
这个OSD的数据将会更新到当前最新的状态。这段时间,这个OSD上的PG就会被标记为recover。
而recover是不容忽视的,因为有时候一个小的硬件故障可能会导致多个OSD发生一连串的问题。
比如,如果一个机架或者机柜的路由挂了,会导致一大批OSD数据滞后,
每个OSD在故障解决重新上线后都需要进行recover。
Ceph提供了一些配置项,用来解决客户端请求和数据恢复的请求优先级问题,这些配置参考上面加粗的字体吧。
Backfilling 当一个新的OSD加入到集群后,CRUSH会重新规划PG将其他OSD上的部分PG迁移到这个新增的PG上。
如果强制要求新OSD接受所有的PG迁入要求会极大的增加该OSD的负载。
回填这个OSD允许进程在后端执行。一旦回填完成后,新的OSD将会承接IO请求。在回填过程中,你可能会看到如下状态:
backfill_wait: 表明回填动作被挂起,并没有执行。
backfill:表明回填动作正在执行。
backfill_too_full:表明当OSD收到回填请求时,由于OSD已经满了不能再回填PG了。
imcomplete: 当一个PG不能被回填时,这个PG会被认为是不完整的。
同样,Ceph提供了一系列的参数来限制回填动作,包括osd_max_backfills:OSD最大回填PG数。
osd_backfill_full_ratio:当OSD容量达到默认的85%是拒绝回填请求。osd_backfill_retry_interval:字面意思。
Remmapped 当Acting集合里面的PG组合发生变化时,数据从旧的集合迁移到新的集合中。
这段时间可能比较久,新集合的主OSD在迁移完之前不能响应请求。
所以新主OSD会要求旧主OSD继续服务指导PG迁移完成。
一旦数据迁移完成,新主OSD就会生效接受请求。
Stale Ceph使用心跳来确保主机和进程都在运行,OSD进程如果不能周期性的发送心跳包,
那么PG就会变成stuck状态。默认情况下,OSD每半秒钟汇报一次PG,up thru,boot, failure statistics等信息,要比心跳包更会频繁一点。
如果主OSD不能汇报给MON或者其他OSD汇报主OSD挂了,Monitor会将主OSD上的PG标记为stale。当启动集群后,
直到peer过程完成,PG都会处于stale状态。而当集群运行了一段时间后,如果PG卡在stale状态,
说明主OSD上的PG挂了或者不能给MON发送信息。
Misplaced 有一些回填的场景:PG被临时映射到一个OSD上。而这种情况实际上不应太久,
PG可能仍然处于临时位置而不是正确的位置。这种情况下个PG就是misplaced。
这是因为正确的副本数存在但是有个别副本保存在错误的位置上。
Incomplete 当一个PG被标记为incomplete,说明这个PG内容不完整或者peer失败,
比如没有一个完整的OSD用来恢复数据了。
scrubbing 清理中,pg正在做不一致性校验。
inconsistent 不一致的,pg的副本出现不一致。比如说对象的大小不一样了。
卡住的pg状态:
Unclean: 归置组里有些对象的副本数未达到期望次数,它们应该在恢复中;
Inactive: 归置组不能处理读写请求,因为它们在等着一个持有最新数据的OSD 回到up 状态;
Stale: 归置组们处于一种未知状态,因为存储它们的OSD 有一阵子没向监视器报告了
(由mon osd report timeout 配置)
为找出卡住的归置组,执行:
ceph pg dump_stuck [unclean|inactive|stale|undersized|degraded]
1.从任何一个monitor中获取crushmap:
ceph osd getcrushmap -o crushmap.bin
2.反编译使之能够阅读
crushtool -d crushmap.bin -o crushmap.txt
3.修改文件
4.编译文件
crushtool -c crushmap.txt -o newcrushmap
5.将新编译的crushmap注入到原ceph集群中。
ceph osd setcrushmap -i newcrushmap
Devices:osd设备
types:bucket类型
buckets:bucket实例
rules: 包含了crush rules来决定存储池中的数据的存放方式。指定了复制和放置的策略,默认包含了默认存储池rbd的一条规则。
其中有一个step take:获取一个bucket名称,开始遍历其树。
启动 Ceph 存储集群时,各守护进程都从同一个配置文件(即默认的 ceph.conf )里查找它自己的配置。
ceph.conf 中可配置参数很多,有时我们需要根据实际环境对某些参数进行修改。
修改的方式分为两种:
直接修改 ceph.conf 配置文件中的参数值,修改完后需要重启 Ceph 进程才能生效。
或在运行中动态地进行参数调整,无需重启进程。
查看运行时配置
ceph daemon {daemon-type}.{id} config show | less
ceph daemon osd.0 config show | less
Ceph 集群提供两种方式的调整,使用 tell 的方式和 daemon 设置的方式。
但是集群重启之后恢复到默认的配置,要想永久的实现需要配置ceph.conf文件
tell 方式设置
下面是使用 tell 命令的修改方法:(此方法需要绑定monitor)
ceph tell {daemon-type}.{id or *} injectargs --{name} {value} [--{name} {value}]
ceph tell osd.0 injectargs --debug-osd 20 --debug-ms 1
在 ceph.conf 文件里配置时用空格分隔关键词;但在命令行使用的时候要用下划线或连字符( _ 或 - )分隔,例如 debug osd 变成 debug-osd 。
daemon 方式设置
获取当前值:
ceph daemon osd.1 config get mon_osd_full_ratio
修改配置值:
ceph daemon osd.1 config set mon_osd_full_ratio 0.97
查看当前配置值:
ceph daemon osd.1 config get mon_osd_full_ratio
调节日志:
ceph tell osd.0 injectargs --debug-osd 0/5 (日志级别/内存日志级别)
ceph daemon osd.0 config set debug_osd 0/5
ceph-disk activate all 将本节点下的osd进行down的进行重启。
Bucket目前有以下三种访问权限:public-read-write,public-read和private,它们的含义如下:
public-read-write:任何人(包括匿名访问)都可以对该Bucket中的Object进行List、Put和Delete操作。
public-read:任何人(包括匿名访问)只能对该Bucket中的Object进行List操作,而不能进行Put和Delete操作。
注意:对Bucket有读操作不表示对Object有读操作。
private:只有该Bucket的创建者拥有所有权限。其他人没有访问权限。
public-read和private,它们的含义如下:
public-read:任何人(包括匿名访问)都可以对该Object进行读操作(即下载)
private:只有Object的拥有者可以对该Object进行操作。
对Bucket有读操作权限并不表示对Object有读操作权限,Bucket的读操作权限只包含对Bucket下的Object有List权限,如果想让匿名用户可以访问某一个Object,还需要将此Object的权限设置为“公开”。
1.mkdir my-cluster , cd my-cluster
2.如果安装的过程中出现问题:
ceph-deploy purgedata {ceph-node} [{ceph-node}]
ceph-deploy forgetkeys
ceph-deploy purge {ceph-node} [{ceph-node}] 清除安装包
3.创建monitor
ceph-deploy new node1
会生成一个Ceph 配置文件、一个monitor 密钥环和一个日志文件。
4.安装ceph
ceph-deploy install node1 node2 node3
5.初始化monitor并收集秘钥
ceph-deploy mon create-initial
完成上述操作后,当前目录里应该会出现这些密钥环:
{cluster-name}.client.admin.keyring
{cluster-name}.bootstrap-osd.keyring
{cluster-name}.bootstrap-mds.keyring
{cluster-name}.bootstrap-rgw.keyring
6.1 把目录用于osd的守护进程
ssh node2
sudo mkdir /var/local/osd0
exit
ssh node3
sudo mkdir /var/local/osd1
exit
准备osd:
ceph-deploy osd prepare node2:/var/local/osd0 node3:/var/local/osd1
激活osd:
ceph-deploy osd activate node2:/var/local/osd0 node3:/var/local/osd1
把配置文件和admin 密钥拷贝到管理节点和Ceph 节点
ceph-deploy admin admin-node node1 node2 node3
sudo chmod +r /etc/ceph/ceph.client.admin.keyring
6.2 将整块磁盘作为osd的守护进程
ceph-deploy osd (--zap-disk) create test-98:/dev/sdb test-98:/dev/sdc test-95:/dev/sdb test-95:/dev/sdc test-55:/dev/sdb test-55:/dev/sdc
--zap-disk 擦除分区
7.分发key到osd节点上
ceph-deploy admin node1 node2 node3
8.ceph health
1.ceph-deploy添加osd
ssh node1
sudo mkdir /var/local/osd2
exit
ceph-deploy osd prepare node1:/var/local/osd2
ceph-deploy osd activate node1:/var/local/osd2
ceph-deploy mon add node2 node3
新增Monitor 后,Ceph 会自动开始同步并形成法定人数。你可以用下面的命令检查法定人数
状态:
ceph quorum_status --format json-pretty
ceph osd out {osd number}
systemctl stop ceph-osd@{osd number}
ceph osd crush remove osd.{osd number}
ceph auth del osd.{osd number}
ceph osd rm osd.{osd number}
最后删除host桶
ceph osd crush remove {hostname}
运行时更改配置文件的内容:
ceph tell {daemon-type}.{id or *} injectargs --{name}
{value} [--{name} {value}]
ceph tell osd.0 injectargs --debug-osd 20 --debug-ms 1
ceph daemon {daemon-type}.{id} config show | less
ceph daemon osd.0 config show | less
Ceph 支持四种桶,每种都是性能和组织简易间的折衷。如果你不确定用哪种桶,我们建
议straw ,关于桶类型的详细讨论见CRUSH - 可控、可伸缩、分布式地归置多副本数据,
特别是Section 3.4 。
支持的桶类型有:
1. Uniform: 这种桶用完全相同的权重汇聚设备。例如,公司采购或淘汰硬件时,一般都
有相同的物理配置(如批发)。当存储设备权重都相同时,你可以用uniform 桶类
型,它允许CRUSH 按常数把副本映射到uniform 桶。权重不统一时,你应该采用其
它算法。
2. List: 这种桶把它们的内容汇聚为链表。它基于RUSH P 算法,一个列表就是一个自然、
直观的扩张集群:对象会按一定概率被重定位到最新的设备、或者像从前一样仍保留
在较老的设备上。结果是优化了新条目加入桶时的数据迁移。然而,如果从链表的中
间或末尾删除了一些条目,将会导致大量没必要的挪动。所以这种桶适合永不或极少
缩减的场景。
3. Tree: 它用一种二进制搜索树,在桶包含大量条目时比list 桶更高效。它基
于RUSH R 算法, tree 桶把归置时间减少到了O(log n) ,这使得它们更适合管理更大
规模的设备或嵌套桶。
4. Straw: list 和tree 桶用分而治之策略,给特定条目一定优先级(如位于链表开头的条
目)、或避开对整个子树上所有条目的考虑。这样提升了副本归置进程的性能,但是
也导致了重新组织时的次优结果,如增加、拆除、或重设某条目的权重。straw 桶类
型允许所有条目模拟拉稻草的过程公平地相互“竞争”副本归置。
rule ssd {
ruleset 0 规则代号
type replicated 类型为副本模式,另外一种模式为纠删码EC
min_size 1 如果一个归置组副本数小于此数, CRUSH 将不应用此规则。
max_size 10 如果一个归置组副本数大于此数, CRUSH 将不应用此规则。
step take ssd 选取桶名为入口并迭代到树底。
step chooseleaf firstn 0 type rack 选取指定类型桶的数量,这个数字通常是存储池的副本数(即pool
size )。选择{bucket-type} 类型的一堆桶,并从各桶的子树里选择一个叶
子节点。集合内桶的数量通常是存储池的副本数(即pool size )。
step emit 输出当前值并清空堆栈。通常用于规则末尾,也适用于相同规则应用到不
同树的情况。
}
Ceph 依赖于Ceph 客户端和OSD ,因为它们知道集群的拓扑,这个拓扑由5 张图共同描述,
统称为“集群运行图”:
1. Montior Map: 包含集群的fsid 、位置、名字、地址和端口,也包括当前版本、创
建时间、最近修改时间。要查看监视器图,用ceph mondump 命令。
2. OSD Map: 包含集群fsid 、创建时间、最近修改时间、存储池列表、副本数量、
归置组数量、OSD 列表及其状态(如up 、in )。要查看OSD 运行图,
用ceph osd dump 命令。
3. PG Map::** 包含归置组版本、其时间戳、最新的OSD 运行图版本、占满率、以及
各归置组详情,像归置组ID 、up set 、acting set 、PG 状态
(如active+clean ),和各存储池的数据使用情况统计。
4. CRUSH Map::** 包含存储设备列表、故障域树状结构(如设备、主机、机架、行、
房间、等等)、和存储数据时如何利用此树状结构的规则。要查看CRUSH 规则,执
行ceph osd getcrushmap -o {filename} 命令;然后用crushtool -
d {comp-crushmap-filename} -o{decomp-crushmap-filename} 反
编译;然后就可以用cat 或编辑器查看了。
5. MDS Map: 包含当前MDS 图的版本、创建时间、最近修改时间,还包含了存储元数
据的存储池、元数据服务器列表、还有哪些元数据服务器是up 且in 的。要查看
MDS 图,执行ceph mds dump 。
ceph osd set noout
ceph osd set nobackfill
ceph osd set norecover
1.ceph.conf文件中进行配置
2.在线修改:
ceph tell osd.{osd number} injectargs '--debug-osd 0/5'
ceph --admin-daemon /var/run/ceph/ceph-osd.{osd number}.asok config set debug_osd 0/5
ceph --admin-daemon /var/run/ceph/ceph-osd.{osd number}.asok config show |grep -i debug_osd
请不要直接修改某个节点的/etc/ceph/ceph.conf文件,而是在部署机下修改ceph.conf,
采用推送的方式更加方便安全,修改完成之后,使用下面的命名将conf文件推送到各个节点上:
ceph-deploy --overwrite-conf config push ceph-1 ceph-2 ceph-3
此时需要修改各个节点的monitor服务:
systemctl restart ceph-mon@{hostname}.service
ceph osd set nodeep-scrub
ethtool eth2,查看speed这一项
top. dstat查看网卡信息
systemctl restart [email protected]
查看Linux内核信息(内核版本):uname -a
dig www.baidu.com +trace追踪路由解析
输入nslookup命令后回车,将进入DNS解析查询界面。
radosgw-admin列出所有用户
radosgw-admin metadata list user
radosgw-admin metadata list bucket
清除安装包
ceph-deploy purge ceph1 ceph2 ceph3
清除配置信息
ceph-deploy purgedata ceph1 ceph2 ceph3
ceph-deploy forgetkeys
每个节点删除残留的配置文件
rm -rf /var/lib/ceph/osd/*
rm -rf /var/lib/ceph/mon/*
rm -rf /var/lib/ceph/mds/*
rm -rf /var/lib/ceph/bootstrap-mds/*
rm -rf /var/lib/ceph/bootstrap-osd/*
rm -rf /var/lib/ceph/bootstrap-mon/*
rm -rf /var/lib/ceph/tmp/*
rm -rf /etc/ceph/*
rm -rf /var/run/ceph/*
查看pool的详细状态信息
ceph osd pool ls detail
rbd
.rgw.root 包含realm,zonegroup和zone
default.rgw.control 在RGW上电时,在control pool创建若干个对象用于watch-notify,主要作用为当一个zone对应多个RGW,且cache使能时, 保证数据的一致性,其基本原理为利用librados提供的对象watch-notify功能,当有数据更新时,通知其他RGW刷新cache, 后面会有文档专门描述RGW cache。
default.rgw.data.root
包含bucekt和bucket元数据,bucket创建了两个对象一个:一个是< bucket_name > 另一个是.bucket.meta.< bucket_name >.< marker > 这个marker是创建bucket中生成的。 同时用户创建的buckets在.rgw.buckets.index都对应一个object对象,其命名是格式:.dir.< marker >
default.rgw.gc RGW中大文件数据一般在后台删除,该pool用于记录那些待删除的文件对象
default.rgw.log 各种log信息
default.rgw.users.uid 保存用户信息,和用户下的bucket信息
default.rgw.users.keys 包含注册用户的access_key
default.rgw.users.swift 包含注册的子用户(用于swift)
default.rgw.buckets.index 包含bucket信息,和default.rgw.data.root对应
default.rgw.buckets.data 包含每个bucket目录下的object
ceph osd df tree 查看各个osd磁盘使用情况