ceph之PG逻辑概念

Posted 努力哥-运维自动化

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ceph之PG逻辑概念相关的知识,希望对你有一定的参考价值。

 一、ceph分存式存储

rados:可靠的,自动的,分布式,对象存储

特性:高效性,统一性(文件存储,块存储,对象存储),可扩展

cluster map 

 

pool(池):

1、pg

2、副本数

3、crush规则(pg--->osd:acting set)

4、用户及权限

 

pool分两种类型:

1、复制类型

2、纠错码类型(1、速度慢 2、scrubling,不支持ceph的所有操作)

 

PG的概念:

epoach: 单调递增的版本号

acting set:  osd列表, 第一个为primary(主) osd, replicated(复制) osd列表

up set: acting set 过去的版本

pg tmp(临时pg):一个主三个人,主挂掉,就会出现临时的pg组

 

pg的状态:

ceph -s  (zabbix监控一个pg的状态,用的命令ceph -s)

creating :在磁盘上分发一个pg的信息给他,就会进入creating状态

peering :找认识的组员,没有拿到分发的数据(没有拷贝数据给他)

active  :找到组员,就会进入active状态

clean  :数据拷贝完成,就进入clean

stable(稳定的): 300s之内,状态没有返回

backfilling :新加osd节点(动态调整的状态)

recovery: 增量拷贝

 

osd daemon状态:默认每2s汇报自己给mon( 同时监控组内其它osd状态)

1、up:可以提供io

2、down:不能提供io

3、in:有数据

4、out :没数据了,2s没有汇报就从组内踢除掉他,就会进入backfilling(填充)

 

以上是关于ceph之PG逻辑概念的主要内容,如果未能解决你的问题,请参考以下文章

45.第37章 ceph

CEPH PG数量设置

004 ceph存储池

ceph 之 crush存储规则理解

调整ceph的pg数(pg_num, pgp_num)

均衡PG-小集群ceph的优化办法