数据实时同步利器-Canal

Posted IT-熊猫

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了数据实时同步利器-Canal相关的知识,希望对你有一定的参考价值。

文章目录

1.Canal 入门

1.1.什么是 Canal

阿里巴巴 B2B 公司,因为业务的特性,卖家主要集中在国内,买家主要集中在国外,所以衍生出了同步杭州和美国异地机房的需求,从 2010 年开始,阿里系公司开始逐步的尝试基于数据库的日志解析,获取增量变更进行同步,由此衍生出了增量订阅&消费的业务。

Canal 是用 Java 开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。目前。Canal 主要支持了 mysql 的 Binlog 解析,解析完成后才利用 Canal Client 来处理获得的相关数据。(数据库同步需要阿里的 Otter 中间件,基于 Canal)。

1.2.MySQL 的 Binlog

1.2.1.什么是 Binlog

MySQL 的二进制日志可以说 MySQL 最重要的日志了,它记录了所有的 DDLDML(除
了数据查询语句)语句,以事件形式记录,还包含语句所执行的消耗的时间,MySQL 的二进
制日志是事务安全型的。

一般来说开启二进制日志大概会有 1%的性能损耗。二进制有两个最重要的使用场景:

其一MySQL ReplicationMaster 端开启 BinlogMaster 把它的二进制日志传递给 Slaves
来达到 Master-Slave 数据一致的目的。

其二:自然就是数据恢复了,通过使用 MySQL Binlog 工具来使恢复数据。
二进制日志包括两类文件:二进制日志索引文件(文件名后缀为.index)用于记录所有
的二进制文件,二进制日志文件(文件名后缀为.00000*)记录数据库所有的 DDLDML(除
了数据查询语句)语句事件。

1.2.2. Binlog 的分类

MySQL Binlog 的格式有三种,分别是 STATEMENT,MIXED,ROW。在配置文件中可以选择配
binlog_format= statement|mixed|row。三种格式的区别:

1)statement:语句级,binlog 会记录每次一执行写操作的语句。相对 row 模式节省空
间,但是可能产生不一致性,比如“update tt set create_date=now()”,如果用 binlog 日志
进行恢复,由于执行时间不同可能产生的数据就不同。
优点:节省空间。
缺点:有可能造成数据不一致。

2)row:行级, binlog 会记录每次操作后每行记录的变化。
优点:保持数据的绝对一致性。因为不管 sql 是什么,引用了什么函数,他只记录执行后的效果。
缺点:占用较大空间。

3)mixed:statement 的升级版,一定程度上解决了,因为一些情况而造成的 statement
模式不一致问题,默认还是 statement,在某些情况下譬如:当函数中包含 UUID() 时;包含
AUTO_INCREMENT 字段的表被更新时;用 now()函数时;会按照
ROW 的方式进行处理。

优点:节省空间,同时兼顾了一定的一致性。
缺点:还有些极个别情况依旧会造成不一致,另外 statementmixed 对于需要对binlog 的监控的情况都不方便。

综合上面对比,Canal 想做监控分析,选择 row 格式比较合适。

1.3.Canal 的工作原理

1.3.1 MySQL 主从复制过程

1)Master 主库将改变记录,写到二进制日志(Binary Log)中;
2)Slave 从库向 MySQL Master 发送 dump 协议,将 Master 主库的 binary log events 拷贝
到它的中继日志(relay log);
3)Slave 从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库。

1.3.2 Canal 的工作原理

很简单,就是把自己伪装成 Slave,假装从 Master 复制数据。

1.4 使用场景

1)原始场景: 阿里 Otter 中间件的一部分
Otter 是阿里用于进行异地数据库之间的同步框架,Canal 是其中一部分。

2)常见场景 1:更新缓存

3)常见场景 2:抓取业务表的新增变化数据,用于制作实时统计

2.MySQL 的准备

2.1 创建数据库

2.2 创建数据表

CREATE TABLE user_info(
	`id` VARCHAR(255),
	`name` VARCHAR(255),
	`sex` VARCHAR(255)
);

2.3 修改配置文件开启 Binlog

#主服务器唯一ID
server-id=1
##启用二进制日志
log-bin=mysql-bin

## 设置不要复制的数据库(可设置多个)
binlog-ignore-db=mysql
binlog-ignore-db=information_schema
binlog-ignore-db=test

##设置需要复制的数据库
binlog-do-db=test-canal

##设置logbin格式
binlog_format=row

注意:binlog-do-db 根据自己的情况进行修改,指定具体要同步的数据库,如果不配置
则表示所有数据库均开启 Binlog

2.4 重启 MySQL 使配置生效

systemctl restart mariadb.service

/var/lib/mysql 目录下mysql-bin.000001查看初始文件大小 1008

2.5 测试 Binlog 是否开启

1)插入数据

INSERT INTO user_info VALUES('1001','zhangsan','male');

2)再次到/var/lib/mysql 目录下,查看 index 文件的大小

2.6 赋权限

在 MySQL 中执行

 set global validate_password_length=4;
 set global validate_password_policy=0;
 GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY 'canal' ;
 flush privileges;

3.Canal 的下载和安装

3.1 下载并解压 Jar 包

地址:https://github.com/alibaba/canal/releases

我们直接把 canal.deployer-1.1.2.tar.gz 拷贝到/opt/sortware 目录下,然后解压
/opt/module/canal 包下

注意:canal 解压后是分散的,我们在指定解压目录的时候需要将 canal 指定上

 mkdir -p /opt/module/canal
 tar -zxvf canal.deployer-1.1.2.tar.gz -C /opt/module/canal

3.2 修改 canal.properties 的配置

 vim canal.properties
#################################################
######### common argument #############
#################################################
canal.id = 1
canal.ip =
canal.port = 11111
canal.metrics.pull.port = 11112
canal.zkServers =
# flush data to zk
canal.zookeeper.flush.period = 1000
canal.withoutNetty = false
# tcp, kafka, RocketMQ
canal.serverMode = tcp
# flush meta cursor/parse position to file

说明:这个文件是 canal 的基本通用配置,canal 端口号默认就是 11111,修改 canal 的
输出 model,默认 tcp

多实例配置如果创建多个实例,通过前面 canal 架构,我们可以知道,一个 canal 服务
中可以有多个 instanceconf/下的每一个 example 即是一个实例,每个实例下面都有独立的
配置文件。默认只有一个实例 example,如果需要多个实例处理不同的 MySQL 数据的话,直
接拷贝出多个 example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改
canal.properties 中的 canal.destinations=实例 1,实例 2,实例 3。

#################################################
######### destinations #############
#################################################
canal.destinations = example

3.3 修改 instance.properties

我们这里只读取一个 MySQL 数据,所以只有一个实例,这个实例的配置文件在conf/example 目录下

vim instance.properties

1)配置 MySQL 服务器地址

#################################################
## mysql serverId , v1.0.26+ will autoGen
canal.instance.mysql.slaveId=20
# enable gtid use true/false
canal.instance.gtidon=false
# position info
canal.instance.master.address=IP:3306

2)配置连接 MySQL 的用户名和密码,默认就是我们前面授权的 canal

# username/password
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
canal.instance.connectionCharset = UTF-8
canal.instance.defaultDatabaseName =test
# enable druid Decrypt database password
canal.instance.enableDruid=false

4.实时监控测试

4.1.TCP 模式测试

4.1.1 创建 canal-demo 项目

4.1.2 配置 pom.xml
 <dependency>
     <groupId>com.alibaba.otter</groupId>
     <artifactId>canal.client</artifactId>
     <version>1.1.2</version>
 </dependency>
4.1.3 通用监视类 –CanalClient

1)Canal 封装的数据结构

2)创建 CanalClient(java 代码)

代码如下:

package com.canal.test;

import com.alibaba.fastjson.JSONObject;
import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.protocol.CanalEntry;
import com.alibaba.otter.canal.protocol.Message;
import com.google.protobuf.ByteString;
import com.google.protobuf.InvalidProtocolBufferException;

import java.net.InetSocketAddress;
import java.util.List;

public class CanalClient 

    public static void main(String[] args) throws InterruptedException, InvalidProtocolBufferException 
        //TODO 获取连接
        CanalConnector canalConnector = CanalConnectors.newSingleConnector(new InetSocketAddress("43.142.123.74", 11111), "example", "", "");
        while (true) 
            //TODO 连接
            canalConnector.connect();
            //TODO 订阅数据库
            canalConnector.subscribe("test-canal.*");
            //TODO 获取数据
            Message message = canalConnector.get(100);
            //TODO 获取Entry集合
            List<CanalEntry.Entry> entries = message.getEntries();
            //TODO 判断集合是否为空,如果为空,则等待一会继续拉取数据
            if (entries.size() <= 0) 
                System.out.println("当次抓取没有数据,休息一会。。。。。。");
                Thread.sleep(1000);
             else 

                //TODO 遍历entries,单条解析
                for (CanalEntry.Entry entry : entries) 

                    //1.获取表名
                    String tableName = entry.getHeader().getTableName();

                    //2.获取类型
                    CanalEntry.EntryType entryType = entry.getEntryType();

                    //3.获取序列化后的数据
                    ByteString storeValue = entry.getStoreValue();

                    //4.判断当前entryType类型是否为ROWDATA
                    if (CanalEntry.EntryType.ROWDATA.equals(entryType)) 

                        //5.反序列化数据
                        CanalEntry.RowChange rowChange = CanalEntry.RowChange.parseFrom(storeValue);

                        //6.获取当前事件的操作类型
                        CanalEntry.EventType eventType = rowChange.getEventType();

                        //7.获取数据集
                        List<CanalEntry.RowData> rowDataList = rowChange.getRowDatasList();

                        //8.遍历rowDataList,并打印数据集
                        for (CanalEntry.RowData rowData : rowDataList) 

                            JSONObject beforeData = new JSONObject();
                            List<CanalEntry.Column> beforeColumnsList = rowData.getBeforeColumnsList();
                            for (CanalEntry.Column column : beforeColumnsList) 
                                beforeData.put(column.getName(), column.getValue());
                            

                            JSONObject afterData = new JSONObject();
                            List<CanalEntry.Column> afterColumnsList = rowData.getAfterColumnsList();
                            for (CanalEntry.Column column : afterColumnsList) 
                                afterData.put(column.getName(), column.getValue());
                            

                            //数据打印
                            System.out.println("Table:" + tableName +
                                    ",EventType:" + eventType +
                                    ",Before:" + beforeData +
                                    ",After:" + afterData);
                        
                     else 
                        System.out.println("当前操作类型为:" + entryType);
                    
                
            
        
    


4.1.4 启动 Canal
 cd /opt/module/canal/
 bin/startup.sh

看到 CanalLauncher 你表示启动成功

[atguigu@hadoop102 canal]$ jps
2269 Jps
2253 CanalLauncher
4.1.5 启动 CanalClient

对数据库表数据进行增删改,查看控制台监听数据:

当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当前操作类型为:TRANSACTIONBEGIN
Table:user_info,EventType:INSERT,Before:,After:"sex":"11","name":"ceshi","id":""
当前操作类型为:TRANSACTIONEND
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当前操作类型为:TRANSACTIONBEGIN
Table:user_info,EventType:UPDATE,Before:"sex":"11","name":"ceshi","id":"",After:"sex":"11","name":"测试","id":"1002"
当前操作类型为:TRANSACTIONEND
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当前操作类型为:TRANSACTIONBEGIN
Table:user_info,EventType:DELETE,Before:"sex":"11","name":"测试","id":"1002",After:
当前操作类型为:TRANSACTIONEND
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。
当次抓取没有数据,休息一会。。。。。。

以上是关于数据实时同步利器-Canal的主要内容,如果未能解决你的问题,请参考以下文章

Canal实现MySQL数据实时同步

canal实时同步mysql数据到elasticsearch(部署,配置,测试)

ElasticSearch实战(四十七)-Canal 实现 MySQL 数据实时同步方案

canal实时同步mysql表到es

实战 | canal 实现Mysql到Elasticsearch实时增量同步

Canal实时同步MySQL数据至Kafka集群,安装部署