flink1.12 sql向redis实时写数据

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了flink1.12 sql向redis实时写数据相关的知识,希望对你有一定的参考价值。

参考技术A 基于 bahir-flink 二次开发,使它支持SQL直接定义写入redis,用户通过DDL指定自己需要保存的字段。

命令行执行 mvn package -DskipTests=true打包后,将生成的包flink-connector-redis_2.12-1.11.1.jar引入flink lib中即可,无需其它设置。

相对上一个版本简化了参数设置,思路更清晰,上一版本字段的值会根据主键等条件来自动生成,这要求使用者需要了解相关规则,有一定的学习成本并且容易埋坑,重构后字段的值由用户在DDL中显示地指定,如下:

取消了必须有主键的限制,使用更简单,如果有多个字段组合成key或者value,需要用户在DML中使用concat_ws等方式组装,不再是插件在后台用不可见字符拼装。

Flink 实战系列Flink SQL 实时同步 Kafka 数据到 Hudi(parquet + snappy)并且自动同步数据到 Hive

Flink SQL 实时同步 Kafka 数据到 Hudi(parquet + snappy)并且自动同步数据到 Hive

今天这篇文章主要来介绍一下 Flink 流式写入 Hudi,并把数据加载到 Hive 表里做查询的两种方式,为了方便演示,下文采用 sql client 的方式提交任务,不写一行代码,纯 SQL 的方式来完成。

版本信息

Flink 1.15.1
Hadoop 2.9.0
Hudi 0.12.0
Kafka 2.4.1

需要注意的是 Flink 1.15.x 版本对应的 Hudi 必须使用 0.12.0 及以上版本,因为 Hudi 0.12.0 版本才开始支持 Flink 1.15.0 版本。

jar 包依赖

把 hudi-flink1.15-bundle-0.12.0.jar 包添加到 flink/lib 下面。

<

以上是关于flink1.12 sql向redis实时写数据的主要内容,如果未能解决你的问题,请参考以下文章

Flink通过异步IO实现redis维表join

Flink1.12流批一体API

个推基于Flink SQL建设实时数仓实践

如何保证 Redis 缓存与数据库双写一致性?

Flink SQL 分组窗口函数 Group Window 实战

正面超越Spark | 几大特性垫定Flink1.12流计算领域真正大规模生产可用(下)