MongoDB副本集同步原理解析

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了MongoDB副本集同步原理解析相关的知识,希望对你有一定的参考价值。

参考技术A

在MongoDB的副本集中,节点之间是通过oplog来同步数据。Primary节点每执行一次数据写入,都会记录一条oplog,Secondary节点会持续不断的自Primary拉取oplog并在本地回放,从而确保各节点达到数据最终一致性。

Primary节点并发写入数据,时间点分别为t1、t2和t3,按时间先后排序为 t1 -> t2 -> t3;如果t1和t3先落库,t2后落库,那么在oplog集合中如何能保证有序呢?

MongoDB底层通用的存储引擎为WiredTiger、In-Memory,以WiredTiger为例,MongoDB管理层调用WiredTiger引擎接口向oplog集合中插入文档(即记录);

WiredTiger会以 oplog 的 ts 字段作为 key、文档内容作为 value,写入一条 KV 记录,wiredtiger 会保证存储(btree 或 lsm 的方式都能保证)的文档按 key 来排序,这样就解决 “Primary节点oplog如何保证有序” 的问题;

并发写入多条oplog ts1、ts2、ts3和ts4,其中 ts1<ts2<ts3<ts4,如果ts1、ts2和ts4先写入primary成功,ts3存在延迟,还未写入,此时secondary节点自pirmary拉取oplog在本地回放,如何保证有序呢?

MongoDB(wiredtiger 引擎)的解决方案是在读取oplog时进行限制,保证Secondary 节点看到一定是顺序的,具体实现机制如下:

如此既可以确保 “secondary节点在本地回放oplog时有序”

Secondary节点回放oplog在保证有序的前提下,如何保证高效呢?如下:

如果OpQueue队列中的oplog有对同一个collection的操作,后续并发进行数据回放时,如何保证同一个collections中两条oplog的执行顺序呢?

参考文档:
MongoDB 如何保证 oplog 顺序?
MongoDB复制集同步原理解析

mongodb学习之:副本集

前面一张介绍了主从模式,现在mongoDB官方已经不建议使用主从模式了,替代方案是采用副本集的模式。副本集不能在一台电脑上操作。需要准备3台电脑进行搭建。副本集就是mongoDB副本所组成的一个集群。

同步原理是,写操作发生在主库,从库同步主库的OpLog日志。

集群中没有特定的主库,主库是选举产生,如果主库down了,会再选举出一台主库。

 

下面来看具体的搭建。使用三台电脑进行搭建,分别是

192.168.0.12:27017   zhf-maple

192.168.0.11:27017   zhf-linux

192.168.0.4:27017    ubuntu

root@zhf-maple:/home/zhf/桌面# cat /etc/hosts

127.0.0.1 localhost

192.168.0.12 zhf-maple

192.168.0.11    zhf-linux

192.168.0.4     ubuntu

在其他两台电脑的/etc/hosts文件也分别添加对应的域名进去

在三台电脑上分别创建node0,node1,node2文件夹然后分别运行命令

 

mongod --dbpath /home/zhf/node0 --replSet rs0

mongod --dbpath /home/zhf/node1 --replSet rs0

mongod --dbpath /home/zhf/node2 --replSet rs0

 

此时进入任意一个mongod服务器。使用admin集合。然后运行rs.initiate()

> use admin
switched to db admin
> rs.initiate()
{
    "info2" : "no configuration explicitly specified -- making one",
    "me" : "zhf-linux:27017",
    "info" : "Config now saved locally.  Should come online in about a minute.",
    "ok" : 1
}

确认配置
> rs.conf()
{
    "_id" : "rs0",
    "version" : 1,
    "members" : [
        {
            "_id" : 0,
            "host" : "zhf-linux:27017"
        }
    ]
}

测试在primary上添加从库
rs0:PRIMARY> rs.add(\'ubuntu:27017\')
{ "ok" : 1 }

查看状态。health:1代表正常启动,stateStr可以看到哪个是主的,哪个是从的
rs0:PRIMARY> rs.status()
{
    "set" : "rs0",
    "date" : ISODate("2018-01-16T09:38:21Z"),
    "myState" : 1,
    "members" : [
        {
            "_id" : 0,
            "name" : "zhf-linux:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 587,
            "optime" : Timestamp(1516095474, 1),
            "optimeDate" : ISODate("2018-01-16T09:37:54Z"),
            "electionTime" : Timestamp(1516095459, 1),
            "electionDate" : ISODate("2018-01-16T09:37:39Z"),
            "self" : true
        },
        {
            "_id" : 1,
            "name" : "ubuntu:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 27,
            "optime" : Timestamp(1516095474, 1),
            "optimeDate" : ISODate("2018-01-16T09:37:54Z"),
            "lastHeartbeat" : ISODate("2018-01-16T09:38:20Z"),
            "lastHeartbeatRecv" : ISODate("2018-01-16T09:38:19Z"),
            "pingMs" : 54,
            "syncingTo" : "zhf-linux:27017"
        }
    ],
    "ok" : 1
}

再次添加从库。此时2个secondary,一个primary就已经启动起来了
rs0:PRIMARY> rs.add(\'zhf-maple:27017\')
{ "down" : [ "zhf-maple:27017" ], "ok" : 1 }
rs0:PRIMARY> rs.status()
{
    "set" : "rs0",
    "date" : ISODate("2018-01-16T09:38:42Z"),
    "myState" : 1,
    "members" : [
        {
            "_id" : 0,
            "name" : "zhf-linux:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 608,
            "optime" : Timestamp(1516095516, 1),
            "optimeDate" : ISODate("2018-01-16T09:38:36Z"),
            "electionTime" : Timestamp(1516095459, 1),
            "electionDate" : ISODate("2018-01-16T09:37:39Z"),
            "self" : true
        },
        {
            "_id" : 1,
            "name" : "ubuntu:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 48,
            "optime" : Timestamp(1516095516, 1),
            "optimeDate" : ISODate("2018-01-16T09:38:36Z"),
            "lastHeartbeat" : ISODate("2018-01-16T09:38:41Z"),
            "lastHeartbeatRecv" : ISODate("2018-01-16T09:38:42Z"),
            "pingMs" : 7,
            "syncingTo" : "zhf-linux:27017"
        },
        {
            "_id" : 2,
            "name" : "zhf-maple:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 0,
            "optime" : Timestamp(0, 0),
            "optimeDate" : ISODate("1970-01-01T00:00:00Z"),
            "lastHeartbeat" : ISODate("2018-01-16T09:38:42Z"),
            "lastHeartbeatRecv" : ISODate("1970-01-01T00:00:00Z"),
            "pingMs" : 0,
            "lastHeartbeatMessage" : "Received heartbeat from member with the same member ID as ourself: 0"
        }
    ],

接下来在primary上进行数据更新:

s0:PRIMARY> use maple
switched to db maple
rs0:PRIMARY> db.insert({\'name\':\'zhanghongfeng\'})
2018-01-16T17:56:06.625+0800 TypeError: Property \'insert\' of object maple is not a function
rs0:PRIMARY> db.maple.insert({\'name\':\'zhanghongfeng\'})
WriteResult({ "nInserted" : 1 })

此时在secondary上查看数据库

rs0:SECONDARY> use maple
switched to db maple
rs0:SECONDARY> db.maple.find()
error: { "$err" : "not master and slaveOk=false", "code" : 13435 }

查找的时候提示not master and slaveOk=false。原因在于mongodb默认是从主节点读写数据的,副本节点上不允许读(更不能写入),需要设置副本节点可以读。通过db.getMongo().setSlaveOk()进行设置
rs0:SECONDARY> db.getMongo().setSlaveOk()
rs0:SECONDARY> db.maple.find()
{ "_id" : ObjectId("5a5dcc538c0f7da3bc2f819f"), "name" : "zhanghongfeng" }

这样就能查询到对应的数据了,表明在副本节点上进行了同步

 

以上是关于MongoDB副本集同步原理解析的主要内容,如果未能解决你的问题,请参考以下文章

mongodb学习之:副本集

mongdb 副本集的原理搭建应用

MongoDB 副本集的常用操作及原理

mongodb副本集原理

mongodb 怎么访问副本集

亲测教你如何搭建 MongoDB 复制集 + 选举原理