k8s分布式存储-Ceph

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了k8s分布式存储-Ceph相关的知识,希望对你有一定的参考价值。

参考技术A

RADOS

Librados

Crush

Pool

PG

Object

Pool、PG和OSD的关系

OSD

块存储( RBD )

文件存储( CephFS )

对象存储( Object )

关闭防火墙

关闭selinux

关闭 swap

根据规划设置主机名

添加 hosts

设置文件描述符

时间同步

配置 SSH 免交互认证

1、创建rbd使用的pool

2、指定存储池使用存储类型

3、创建一个块设备

3、查看块设备

1、禁用当前系统内核不支持的feature

2、映射(任意节点操作)

3、格式化块设备

4、mount到本地

5、取消块设备和内核映射

6、删除RBD块设备

1、拷贝配置文件和秘钥

2、安装 Ceph 客户端

3、剩余操作就与本地挂载操作一样了

1、创建快照

2、列出创建的快照

3、还原快照

4、重新映射并挂载验证

5、删除快照

1、创建一个块设备

2、创建快照

3、设置快照处于被保护状态

4、通过快照克隆一个新块设备

5、将克隆的快照独立于父设备

挂载本地目录

fuse方式挂载

**全部统一命名空间到 ceph-csi **

k8s节点安装 Ceph 客户端

csi-config-map.yaml

storageclass

secret

启动验证

rbd-pod-test.yaml

测试

**全部统一命名空间到 ceph-csi **

k8s节点安装 Ceph 客户端

csi-config-map

storageclass

secret

启动验证

ceph-cephfs-test

测试

以上是关于k8s分布式存储-Ceph的主要内容,如果未能解决你的问题,请参考以下文章

k8s 对接 ceph 实现持久化存储

k8s 对接 ceph 实现持久化存储

k8s 集群部署rook-ceph存储系统及使用

Ceph分布式存储系统架构研究综述

Ceph分布式存储系统架构研究综述

云原生之存储实战部署Ceph分布式存储集群