3.canal解析binlog送入kafka
Posted PacosonSWJTU
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了3.canal解析binlog送入kafka相关的知识,希望对你有一定的参考价值。
【README】
1.本文介绍了 canal把日志解析后送入到kafka的配置;
2.canal抽取增量binlog日志的架构图,参见
2.canal服务器配置及java客户端_PacosonSWJTU的博客-CSDN博客mysql master节点可以开启biglog日志记录功能,开启后每次向mysql服务端发送写操作命令,会把命令记录在一种特殊的文件中,这个特殊的文件称为biglog日志。若服务器异常退出,借用binlog可以恢复数据!二进制日志索引文件(文件名后缀为.index)用于记录所有的二进制文件;二进制日志文件(文件名后缀为.00000*)记录数据库所有的 DDL 和 DML(除了数据查询语句)语句事件;4)查看日志文件及日志索引文件// 内容如下;https://blog.csdn.net/PacosonSWJTU/article/details/1269033803.原理如下:
- 即 canal服务器做了kafka的配置,即canal服务器会启动一个线程,这个线程创建一个kafka生产者;
- canal在做增量binlog解析时,把解析结果送入 kafka(生产者)即可;
【2】canal解析结果送入kafka配置
【2.1】修改canal配置
1)服务器配置修改如下。
// canal.properties 修改如下。
// 服务器模式为kafka
canal.serverMode = kafka
// kafka集群节点列表
kafka.bootstrap.servers = centos201:9092,centos202:9092,centos203:9092
2)example 实例的 instance.properties 修改如下。
// instance.properties 修改如下。
// slave机器编号,与mysql的master机器编号区别开
canal.instance.mysql.slaveId=201
// mysql服务器master节点的ip及端口
canal.instance.master.address=192.168.163.201:3306
// 连接到master节点的用户名与密码
canal.instance.dbUsername=canal
canal.instance.dbPassword=canal
// kafka topic
canal.mq.topic=canal_topic
3)修改完成;
重新启动 canal 服务器。
bin/startup.sh
【3】kafka配置
1)创建topic, canal_topic
kafka-topics.sh --bootstrap-server centos201:9092 --create --topic canal_topic --partitions 3 --replication-factor 2
2)命令行开启 canal_topic 的消费者:
[root@centos201 conf]# kafka-console-consumer.sh --topic canal_topic --bootstrap-server centos201:9092
3)插入数据,并查看kafka消费者消费效果:
3.1)插入数据:
INSERT INTO trcanal.user_inf_tbl (id, name, sex) VALUES
('20220917_0028', 'zhangsan0027', 'male27')
;
3.2)kafka消费者打印消息:
[root@centos201 conf]# kafka-console-consumer.sh --topic canal_topic --bootstrap-server centos201:9092
"data":["id":"20220917_0028","name":"zhangsan0027","sex":"male27"],"database":"trcanal","es":1663408824000,"id":3,"isDdl":false,"mysqlType":"id":"varchar(20)","name":"varchar(255)","sex":"varchar(255)","old":null,"pkNames":["id"],"sql":"","sqlType":"id":12,"name":12,"sex":12,"table":"user_inf_tbl","ts":1663408825413,"type":"INSERT"
"data":["id":"20220917_0028","name":"zhangsan0027","sex":"male27"],"database":"trcanal","es":1663408824000,"id":3,"isDdl":false,"mysqlType":"id":"varchar(20)","name":"varchar(255)","sex":"varchar(255)","old":null,"pkNames":["id"],"sql":"","sqlType":"id":12,"name":12,"sex":12,"table":"user_inf_tbl","ts":1663408825452,"type":"INSERT"
canal解析增量binlog日志后,成功送入kafka;
4)数据结构:
【补充】
显然 canal 解析增量binlog日志,在重放日志后,可能产生重复数据(这是我们需要注意的);
以上是关于3.canal解析binlog送入kafka的主要内容,如果未能解决你的问题,请参考以下文章
StreamSets解析MySQL Binlog写入Kafka
StreamSets解析MySQL Binlog写入Kafka