2. Ceph与OpenStack整合(与glance整合)                                

  • 创建: linhaifeng,最新修改: 昨天4:18 下午

思路:1.ceph集群monitor节点创建存储池p_w_picpaths-pool,创建访问该存储池的用户p_w_picpaths,导出秘钥文件ceph.client.p_w_picpaths.keyring,发送ceph.conf和ceph.client.p_w_picpaths.keyring到glance客户端的/etc/ceph目录下

   2.所有glance节点安装python-rbd软件包,修改glance.api.conf配置文件,指定镜像存储位置,重启openstack-glance-api,openstack-glance-registry

步骤:

1.ceph集群的monitor节点

  a.ceph auth get-or-create client.p_w_picpaths mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=p_w_picpaths' -o /etc/ceph/ceph.client.p_w_picpaths.keyring      ------------>注意这个文件的命名,必须叫这个名字(命名规则:ceph.client.用户名.keyring)

  b.for i in `cat ip.txt`; do scp -r ceph.conf $i:/etc/ceph/ ;scp -r ceph.client.p_w_picpaths.keyring $i:/etc/ceph/;done                           ----------------------->注意:ip.txt中存放所有glance节点的ip地址,目标路径必须为/etc/ceph

2.glance-api节点(所有glance节点操作相同)

  a.在 /etc/glance/glance-api.conf 文件中做如下修改:(注意,下列选择需要你在配置文件中自己找,不要粘贴复制)

                [DEFAULT]
                show_p_w_picpath_direct_url = True
                stores=glance.store.rbd.Store
                default_store = rbd
                rbd_store_pool = p_w_picpaths
                rbd_store_user = glance
                rbd_store_ceph_conf = /etc/ceph/ceph.conf
                rbd_store_chunk_size = 8

    b.重启服务 

                  /etc/init.d/openstack-glance-api restart
                  /etc/init.d/openstack-glance-registry restart

3.测试可用性:(登录dashboard,用新上传镜像安装主机,或者在ceph集群monitor节点rados -p p_w_picpaths ls发现有数据产生证明镜像已经传入ceph)

  glance p_w_picpath-create --name "cirros-0.3.4-x86_64-test_lhf" --disk-format qcow2 --container-format bare --is-public True --progress < /tmp/p_w_picpaths/cirros-0.3.4-x86_64-disk.img