[TOC]
一、Ceph集群规划
系统类型: Centos7.5
ceph版本: v13.2.7 mimic
主机名 | IP地址 | 角色 | 数据盘 |
---|---|---|---|
ceph-node1 | 172.16.0.122 | mon、mgr、osd、deploy | /dev/sdb/ |
ceph-node1 | 172.16.0.123 | mon、mgr、osd | /dev/sdb/ |
ceph-node1 | 172.16.0.124 | mon、mgr、osd | /dev/sdb/ |
二、安装部署
1、预检
host解析
时间同步
ssh免密登录,deploy节点需要ssh免密登录到所有的node节点
关闭防火墙
关闭selinux
2、部署
(1)、所有节点配置yum源
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
cat << EOF > /etc/yum.repos.d/ceph.repo
[Ceph]
name=Ceph packages for $basearch
baseurl=http://download.ceph.com/rpm-mimic/el7/$basearch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc
priority=1
[Ceph-noarch]
name=Ceph noarch packages
baseurl=http://download.ceph.com/rpm-mimic/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc
priority=1
[ceph-source]
name=Ceph source packages
baseurl=http://download.ceph.com/rpm-mimic/el7/SRPMS
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://download.ceph.com/keys/release.asc
priority=1
EOF
(2)、deploy节点安装ceph-deploy并初始化集群
在node1安装ceph-deploy工具
# sudo yum -y install ceph-deploy
# ceph-deploy --version
2.0.1
创建目录,用于保存执行ceph-deploy时产生的文件
mkdir /data/ceph-cluster/ && cd /data/ceph-cluster/
初始化集群
ceph-deploy new ceph-node1 ceph-node2 ceph-node3
修改配置文件
cat ceph.conf
[global]
fsid = 51fd080e-722e-4c53-9c48-c6bbddef663a
mon_initial_members = ceph-node1, ceph-node2, ceph-node3
mon_host = 172.16.0.122,172.16.0.123,172.16.0.124
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
public network = 172.16.0.0/24
osd_pool_default_size = 2
配置的含义:
fsid:文件系统id
mon_initial_members:监视器主机名
mon_host:监视器IP地址
cephx:表示开启认证
public network:指定public网络
在三个节点安装ceph
ceph-deploy install --release mimic ceph-node1 ceph-node2 ceph-node3
开始部署monitor
ceph-deploy mon create-initial
拷贝配置文件及admin密钥到各ceph节点
ceph-deploy admin ceph-node1 ceph-node2 ceph-node3
创建ceph管理进程服务
ceph-deploy mgr create ceph-node1 ceph-node2 ceph-node3
查看集群状态,osd未创建
# ceph -s
cluster:
id: aa6f450a-613a-435d-ace3-4e1a4c8d231a
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph-node1,ceph-node2,ceph-node3
mgr: ceph-node1(active), standbys: ceph-node2, ceph-node3
osd: 0 osds: 0 up, 0 in
data:
pools: 0 pools, 0 pgs
objects: 0 objects, 0 B
usage: 0 B used, 0 B / 0 B avail
pgs:
创建osd
注意:如果磁盘已存在分区需要执行zap命令,删除分区和磁盘内容,然后再执行create
ceph-deploy disk zap ceph-node1 /dev/sdb
ceph-deploy disk zap ceph-node2 /dev/sdb
ceph-deploy disk zap ceph-node3 /dev/sdb
ceph-deploy osd create --data /dev/sdb ceph-node1
ceph-deploy osd create --data /dev/sdb ceph-node2
ceph-deploy osd create --data /dev/sdb ceph-node3
再次查看集群状态
#ceph -s
cluster:
id: aa6f450a-613a-435d-ace3-4e1a4c8d231a
health: HEALTH_OK
services:
mon: 3 daemons, quorum ceph-node1,ceph-node2,ceph-node3
mgr: ceph-node1(active), standbys: ceph-node2, ceph-node3
osd: 3 osds: 3 up, 3 in
data:
pools: 0 pools, 0 pgs
objects: 0 objects, 0 B
usage: 3.0 GiB used, 57 GiB / 60 GiB avail
pgs:
(3)、ceph启用dashboard
启用dashboard
ceph mgr module enable dashboard
为dashboard生成自签名证书,使用https访问
ceph dashboard create-self-signed-cert
为dashboard绑定IP和端口
ceph config set mgr mgr/dashboard/server_addr 172.16.0.122
ceph config set mgr mgr/dashboard/server_port 7000
重启一下mgr
sudo systemctl restart ceph-mgr@ceph-node1
查看服务
sudo ceph mgr services
{
"dashboard": "https://172.16.0.122:9000/"
}
更新dashboard账号密码
ceph dashboard set-login-credentials admin Zywlw@2019
登录dashboard
https://172.16.0.122:9000/
(4)、取消部署ceph
如果部署失败,可以执行如下命令清除各节点上的软件及部署时生成的文件;
ceph-deploy purge {ceph-node}
ceph-deploy purgedata {ceph-node}
ceph-deploy forgetkeys
三、ceph常用命令
1、集群监控
#检查集群健康状况,正常返回HEALTH_OK
ceph health
如果配置文件或密钥不在默认路径,需要指定:
ceph -c /path/to/conf -k /path/to/keyring health
#检查集群状态,返回集群健康状态、服务状态以及数据状态
ceph status 或者 ceph –s
#检查集群的使用情况,返回集群整体使用情况和各个存储池的使用情况
ceph df
#检查OSD状态
ceph osd stat 或者 ceph osd dump 或者 ceph osd tree
#检查监视器状态
ceph mon stat 或者 ceph mon dump
#检查MDS状态
ceph mds stat 或者 ceph mds dump
2、存储池
#列出存储池
ceph osd lspools
#创建存储池
##副本类型
ceph osd pool create {pool-name} {pg-num} [{pgp-num}] [replicated] [crush-ruleset-name] [expected-num-objects]
##纠删类型(类似于RAID5)
ceph osd pool create {pool-name} {pg-num} {pgp-num} erasure [erasure-code-profile] [crush-ruleset-name] [expected_num_objects]
##必需参数:
pool-name 池名称
pg-num 存储池拥有的归置组总数
少于5个OSD时可把pg_num设置为128
OSD数量在5到10个时,可把pg_num设置为 512
OSD数量在10到50个时,可把pg_num设置为4096
pgp-num用于归置的归置组总数,一般等于归置组总数
#设置存储池配额
ceph osd pool set-quota {pool-name} [max_objects {obj-count}] [max_bytes {bytes}]
#删除存储池
ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]
#重命名存储池
ceph osd pool rename {current-pool-name} {new-pool-name}
#查看存储池统计信息
rados df
3、用户管理
#罗列用户
ceph auth list
#获取用户信息,包括用户密钥、能力(用户的权限)
ceph auth get {TYPE.ID}
#新增用户
##直接添加用户并指定能力
ceph auth add client.john mon 'allow r' osd 'allow rw pool=liverpool'
##常用的添加用户并指定能力,会以标准格式返回用户名称和key,如果用户已存在,会直接返回用户名和key
ceph auth get-or-create client.paul mon 'allow r' osd 'allow rw pool=liverpool'
##在上条命令基础上,将返回保存到文件中
ceph auth get-or-create client.george mon 'allow r' osd 'allow rw pool=liverpool' -o george.keyring
##添加用户并指定能力,只返回key,-o表示将返回保存到文件
ceph auth get-or-create-key client.ringo mon 'allow r' osd 'allow rw pool=liverpool' -o ringo.key
#修改用户能力,ceph auth caps会覆盖当前能力,如果新增能力时注意在命令中加上当前能力
ceph auth caps USERTYPE.USERID {daemon} 'allow [r|w|x|*|...] [pool={pool-name}] [namespace={namespace-name}]' [{daemon} 'allow [r|w|x|*|...] [pool={pool-name}] [namespace={namespace-name}]']
#删除用户,其中 {TYPE} 是 client 、 osd 、 mon 或 mds 之一, {ID} 是用户名或守护进程的 ID
ceph auth del {TYPE}.{ID}
#查看用户密钥
ceph auth print-key {TYPE}.{ID}
#导入用户
ceph auth import -i /path/to/keyring