Flink 使用之 MySQL CDC

Posted 宝哥大数据

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink 使用之 MySQL CDC相关的知识,希望对你有一定的参考价值。

一、CDC 简介

CDC 即 Change Data Capture 变更数据捕获,为Flink 1.11中一个新增功能。我们可以通过 CDC 得知数据源表的更新内容(包含Insert Update 和 Delete),并将这些更新内容作为数据流发送到下游系统。捕获到的数据操作具有一个标识符,分别对应数据的增加,修改和删除。

  • +I:新增数据。
  • -U:一条数据的修改会产生两个U标识符数据。其中-U含义为修改前数据。
  • +U:修改之后的数据。
  • -D:删除的数据。

在我的文章 Flink CDC 中可以更详细的理解 CDC

二、CDC 需要的配置

2.1、mysql 启用 binlog

接下来以 MySQL CDC 为例,熟悉配置 Flink MySQL CDC。

在使用CDC之前务必要开启 MySQL 的 binlog。下面以 MySQL 5.7 版本为例说明。

修改my.cnf文件,增加:

    server_id=1
    log_bin=mysql-bin
    binlog_format=ROW
    expire_logs_days=30

2.2、初始化MySQL 源数据表

到这里MySQL环境已经配置完毕。接下来开始准备测试表和数据。

    create database demo character set utf8mb4;
    use demo;
    
    create table student(`id` int primary key, `name` varchar(128), `age` int);

这里创建了演示数据库 demo 和一张 student 表。

三、实战

3.1、使用Java代码读取CDC数据流

到这一步我们开始使用 Flink 程序来获取 CDC 数据流。

3.1.1、使用传统MySQL 数据源方式

首先需要引入依赖。
注意: 本文参考 ververica 官网 的CDC 教程https://ververica.github.io/flink-cdc-connectors/master/content/about.html, 但是ververica 被阿里收购后, groupId 变成了 com.alibaba.ververica, 这个地方需要注意下。

    <dependency>
        <groupId>com.alibaba.ververica</groupId>
        <artifactId>flink-connector-mysql-cdc</artifactId>
        <version>1.3.0</version>
    </dependency>
 

然后使用Table API编写程序。这里我们仅仅将CDC数据流配置为数据源,然后将CDC数据流的内容打印出来。

    val env = StreamExecutionEnvironment.getExecutionEnvironment
    
    // 使用MySQLSource创建数据源
    // 同时指定StringDebeziumDeserializationSchema,将CDC转换为String类型输出
    val sourceFunction = MySQLSource.builder()
    	.hostname("your-ip")
    	.port(3306)
        .databaseList("demo")
        .username("root")
        .password("123456")
        .deserializer(new StringDebeziumDeserializationSchema).build();
    
    // 单并行度打印,避免输出乱序
    env.addSource(sourceFunction).print.setParallelism(1)
    
    env.execute()

此时我们插入一条数据:

    insert into student values(2, 'kate', 28);

可以看到程序有如下输出:


SourceRecord{sourcePartition={server=mysql_binlog_source}, sourceOffset={ts_sec=1618390979, file=mysql-bin.000003, pos=885, row=1, server_id=1, event=2}} ConnectRecord{topic='mysql_binlog_source.demo.student', kafkaPartition=null, key=Struct{id=2}, keySchema=Schema{mysql_binlog_source.demo.student.Key:STRUCT}, value=Struct{after=Struct{id=2,name=kate,age=28},source=Struct{version=1.4.1.Final,connector=mysql,name=mysql_binlog_source,ts_ms=1618390979000,db=demo,table=student,server_id=1,file=mysql-bin.000003,pos=1011,row=0,thread=2},op=c,ts_ms=1618391175254}, valueSchema=Schema{mysql_binlog_source.demo.student.Envelope:STRUCT}, timestamp=null, headers=ConnectHeaders(headers=)}
 

3.1.2、SQL

接下来我们使用更为简洁的SQL方式。

首先引入Flink SQL必须的依赖。需要注意的是,这里使用blink planner。本例子中使用Scala语言编写,所以引入了Scala相关依赖。

    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-table-api-scala-bridge_${scala.binary.version}</artifactId>
        <version>${flink.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-table-planner-blink_${scala.binary.version}</artifactId>
        <version>${flink.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-streaming-scala_${scala.binary.version}</artifactId>
        <version>${flink.version}</version>
    </dependency>
    
    <dependency>
        <groupId>com.alibaba.ververica</groupId>
        <artifactId>flink-connector-mysql-cdc</artifactId>
        <version>1.3.0</version>
    </dependency>

编写如下所示的程序代码:

    // 创建Blink Streaming的TableEnvironment
    val bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build()
    val tableEnvironment = TableEnvironment.create(bsSettings)
    
    // 创建表,connector使用mysql-cdc
    tableEnvironment.executeSql("CREATE TABLE mysql_binlog (id INT NOT NULL, name STRING, age INT) WITH ('connector' = 'mysql-cdc', 'hostname' = '10.180.210.135', 'port' = '3306', 'username' = 'root', 'password' = '123456', 'database-name' = 'demo', 'table-name' = 'student')")
    
    // 创建下游数据表,这里使用print类型的connector,将数据直接打印出来
    tableEnvironment.executeSql("CREATE TABLE sink_table (id INT NOT NULL, name STRING, age INT) WITH ('connector' = 'print')")
    
    // 将CDC数据源和下游数据表对接起来
    tableEnvironment.executeSql("INSERT INTO sink_table SELECT id, name, age FROM mysql_binlog")
    

接下来可以执行insert语句插入数据,控制台会打印出数据的变化。

例如我们依次执行:

    insert into student values(1,'paul',20);
    update student set age=30 where id=1;
    delete from student where id=1;

在控制台可以得到如下输出:

    +I(1,paul,20)
    -U(1,paul,20)
    +U(1,paul,30)
    -D(1,paul,30)

3.2、使用SQL Client读取CDC

相比较创建一个 Java 项目以 jar 包的方式创建作业,Fllink提供了一个更为简单的方式:使用 SQL Client。接下来我们开始配置SQL Client环境。

3.2.1、配置Flink环境

在 Flink SQL Client 使用 CDC 功能之前,我们需要将相关依赖放入 Flink lib目录。

访问https://mvnrepository.com/artifact/com.alibaba.ververica/flink-connector-mysql-cdc/,下载flink-connector-mysql-cdcjar包,复制到flink安装位置的lib目录中。

3.2.2、启动Flink SQL Client

这里SQL Client在standalone集群上运行。

官网配置方式链接:https://ci.apache.org/projects/flink/flink-docs-master/docs/dev/table/sqlclient/#getting-started,简单来说是执行Flink安装目录如下两个命令:

    ./bin/start-cluster.sh
    ./bin/sql-client.sh embedded

如果没有问题,此时可以进入SQL Client。

执行如下SQL(和上一章"使用SQL"使用的语句相同):

    CREATE TABLE mysql_binlog (
     id INT NOT NULL,
     name STRING,
     age INT
    ) WITH (
     'connector' = 'mysql-cdc',
     'hostname' = 'localhost',
     'port' = '3306',
     'username' = 'root',
     'password' = '123456',
     'database-name' = 'demo',
     'table-name' = 'student'
    );
    
    CREATE TABLE sink_table (
     id INT NOT NULL,
     name STRING,
     age INT
    ) WITH (
        'connector' = 'print'
    );
    
    INSERT INTO sink_table SELECT id, name, age FROM mysql_binlog;

然后在MySQL命令行执行些insert语句插入数据。需要注意的是sink_table的输出是无法在SQL client上面查看的。需要打开Flink Web UI的Task Managers页面的stdout标签。可以找到类似如下输出:

+I(1,paul,20)
-U(1,paul,20)
+U(1,paul,30)
-D(1,paul,30)

Flink 已经成功捕获到MySQL的数据变更。

参考:
https://ververica.github.io/flink-cdc-connectors/master/content/about.html

关注我的公众号【宝哥大数据】, 更多干货

以上是关于Flink 使用之 MySQL CDC的主要内容,如果未能解决你的问题,请参考以下文章

Flink系列之:Flink CDC实现海量数据入湖

使用Flink CDC 2.2.1进行ETL-Oracle-MySQL

Flink CDC 读取MySQL的数据

flink cdc MySQL2Doris 案例分享

Flink系列之:基于Flink CDC2.0实现海量数据的实时同步和转换

Flink CDC (更新中)