2ceph-deploy之配置使用RBD

Posted nineep

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了2ceph-deploy之配置使用RBD相关的知识,希望对你有一定的参考价值。

说明

部署完ceph集群(active+clean状态)之后,

我们来实践下ceph block device(即RBD或RADOS block device)。
我们需要在一台新的client节点上,初始化、使用ceph集群创建、提供的卷(image)

 


 在ceph-client节点,安装ceph

1、在admin节点为ceph-client安装ceph
  1. ceph-deploy install ceph-client
2、分发ceph.conf和ceph.client.admin.keyring到ceph-client节点
  1. ceph-deploy admin
3、确认keyring 文件有读权限
  1. chmod +r /etc/ceph/ceph.client.admin.keyring

在admin节点,创建一个块设备pool

1、在admin节点,创建一个名为rbd的pool
         1. ceph osd pool create rbd 8
2、在admin节点,初始化pool
  1. rbd pool init rbd

在ceph-client节点,配置,使用块设备

1、在ceph-client节点,创建块设备image
  1. rbd create foo --size 4096 --image-feature layering [-m {mon-IP}] [-k /path/to/ceph.client.admin.keyring]
2、在ceph-client节点,映射 image到 块设备
  1. rbd map foo --name client.admin [-m {mon-IP}] [-k /path/to/ceph.client.admin.keyring]
3、在ceph-client节点,给块设备创建文件系统
  1. mkfs.ext4 -m0 /dev/rbd/rbd/foo
4、在ceph-client节点,挂载块设备
  1. mkdir /mnt/ceph-block-device
  2. mount /dev/rbd/rbd/foo /mnt/ceph-block-device
  3. cd /mnt/ceph-block-device
5、将块设备配置为在引导时自动映射和挂载(并且在关闭时卸载/取消映射) - 请参考:http://docs.ceph.com/docs/master/man/8/rbdmap/

以上是关于2ceph-deploy之配置使用RBD的主要内容,如果未能解决你的问题,请参考以下文章

K8S使用ceph-csi持久化存储之RBD

ceph存储集群实战——ceph存储配置(映射RBD镜像到客户端)

ceph分布式存储实战——ceph存储配置(RBD镜像日常管理)

使用qemu-nbd进行rbd挂载

kubeadm k8s配置 ceph rbd存储 类型storageClass

Ceph client上配置RBD log