ceph 之 crush存储规则理解

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了ceph 之 crush存储规则理解相关的知识,希望对你有一定的参考价值。

    ceph是分布式存储,其中对于数据的存储规则是一个重点和难点。比如每个数据块的数据备份是3份,3份数据是怎么分布的?ceph的crush 就是解决数据分布规则的问题。

    应用端直接使用的是pool,pool是由存储的基本单位pg组成,pg分布在磁盘逻辑单元osd上,osd一般是对应一块物理硬盘,osd分布在物理主机host,host分布在机框chassis中,机框chassis分布在机架rack中,几家rack分布在机柜阵列raw中,后面可以继续归属,->pdupod->room->datacenter 。其中host/chasis/rack 等等在ceph属于中叫做bucket(桶),各个级别的bucket是默认的,当有特殊需求的时候,可以自定义新的级别bucket,比如新定义一个bucket级别host-SSD ,专门将SSD盘的OSD归入这个bucket中。

    OSD归类完成之后,数据的分布需要使用规则,比如回到上面的问题,每个数据块的数据备份是3份,3份数据是怎么分布的?首先,应用端使用pool,假定3个基本数据单元需要存放到3个pg中,这个时候就需要确定使用哪3个pg,需要遵从rule,这个rule 也是crush定义的。

    下面以新建一个容纳ssd磁盘的bucket,以及相对应的rule为例,简单罗列一下crush的相关命令:

创建ssd root

ceph osd crush add-bucket ssd root

//创建一个新的桶叫ssd ,级别是root最高级

创建hostgroup

ceph osd crush add-bucket ssd-hosts chasis

//创建一个新的桶叫ssd-hosts ,级别是机框chasis

ceph osd crush move ssd-hosts root=ssd

//将ssd-hosts归入ssd

创建host

ceph osd crush add-bucket ssd-m1 host

//创建一个新的桶叫ssd-m1 ,级别是主机host

ceph osd crush add-bucket ssd-compute host

//创建一个新的桶叫ssd-compute ,级别是host

ceph osd crush move ssd-m1 chasis=ssd-hosts

//将ssd-m1归入ssd-hosts

ceph osd crush move ssd-compute chasis=ssd-hosts

//将ssd-compute归入ssd-hosts

移动osd

ceph osd crush set osd.0 1.0 host=ssd-m1

//将osd.0 移动到主机host=ssd-m1 中

ceph osd crush set osd.1 1.0 host=ssd-compute

//将osd.1 移动到主机host=ssd-compute 中

创建crush rule

ceph osd crush rule create-simple ssd ssd host firstn

//创建crush rule,rule名称是ssd,root=ssd,tpye=host,mode=firstn 

显示rule规则

ceph osd crush rule dump

[

    {

        "rule_id": 0,

        "rule_name": "replicated_ruleset",

        "ruleset": 0,

        "type": 1,

        "min_size": 1,

        "max_size": 10,

        "steps": [

            {

                "op": "take",

                "item": -1,

                "item_name": "default"

            },

            {

                "op": "chooseleaf_firstn",

                "num": 0,

                "type": "host"

            },

            {

                "op": "emit"

            }

        ]

    },

    {

        "rule_id": 1,

        "rule_name": "ssd",

        "ruleset": 1,

        "type": 1,

        "min_size": 1,

        "max_size": 10,

        "steps": [

            {

                "op": "take",

                "item": -9,

                "item_name": "ssd"

            },

            {

                "op": "chooseleaf_firstn",

                "num": 0,

                "type": "host"

            },

            {

                "op": "emit"

            }

        ]

    }

]

    可以看到有2个规则,1个是默认规则,1个是规则ssd 。


创建pool以及使用rule

规则有了之后,接下来就是使用了。在创建pool的时候,可以指定rule。

ceph osd pool create ssd 128 128

ceph osd pool set ssd crush_ruleset 1  //这个ruleid 1 就是上面新创建的规则


以上是关于ceph 之 crush存储规则理解的主要内容,如果未能解决你的问题,请参考以下文章

ceph之PG逻辑概念

004 ceph存储池

ceph(第三步) 基本使用

ceph学习笔记之八 CRUSH

ceph学习笔记之十 副本放置策略

深入Ceph原理包含核心算法Crush说明和通信机制原理