ceph-rbd挂载

RBD挂载

环境配置

系统:centos7
内核:3.10.0-1062.4.3.e17.x86_64
ceph版本:ceph version 12.2.12 (1436006594665279fe734b4c15d7e08c13ebd777) luminous (stable)

centos-yum

vim /etc/yum.repos.d/ceph-clinet.repo
[ceph-noarch]
name=Ceph noarch packages
#baseurl=http://download.ceph.com/rpm-kraken/el7/noarch
baseurl=https://mirrors.aliyun.com/ceph/rpm-luminous/el7/x86_64
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc

正文:

####client:
yum install python -y 
###ceph-master:
sudo ceph osd lspools    查看pool
sudo ceph df       查看ceph的存储空间  
sudo ceph osd pool create shanghai 150  创建名为shanghai的pool ,pg_num为128
	通常在创建pool之前,需要覆盖默认的pg_num,官方推荐:
	若少于5个OSD, 设置pg_num为128。
	5~10个OSD,设置pg_num为512。
	10~50个OSD,设置pg_num为4096。
	超过50个OSD,可以参考pgcalc计算
rbd pool init shanghai  初始化pool
ssh-copy-id client-ip
ceph-deploy install  client-ip    #安装ceph
ceph-deploy admin client-ip     #将/etc/ceph/ceph.client.admin.keyring,ceph.conf复制到client
或者
scp ceph.client.admin.keyring root@client-ip:/etc/ceph/
scp ceph.conf root@client-ip:/etc/ceph/
###client
ceph mon stat    # 查看mon状态
#在该ceph-client节点上,创建一个块设备映像
rbd create shanghai/storage --size 1T --image-feature=layering -m mon01_address:6789,mon02_address:6789,mon03_address:6789 -k /etc/ceph/ceph.client.admin.keyring

rbd list shanghai(pool)   查看pool下的块映像
#在ceph-client节点上,将映像映射到块设备。
rbd map shanghai/storage
#通过在ceph-client 节点上创建文件系统来使用块设备
mkfs.ext4 -m0 /dev/rbd0
mount /data/ /dev/rbd/shanghai/storage
df -h 
echo /dev/rbd0 /data ext4 noauto 0 0 >> /etc/fstab
#noauto 手动执行挂载
#建议手动挂载,自动挂载没用

参考1
参考2

你可能感兴趣的:(ceph)