Flink实战系列Flink SQL 写入 kafka 自定义分区策略

Posted JasonLee-后厂村程序员

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink实战系列Flink SQL 写入 kafka 自定义分区策略相关的知识,希望对你有一定的参考价值。

Flink SQL 写入 kafka 自定义分区策略

当用 Flink SQL 写入 kafka 的时候如何指定分区策略呢?其实 Flink SQL 本身是提供有 sink.partitioner 参数的,详细可以查看官网 https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/connectors/table/kafka/#sink-partitioner

sink.partitioner optional ‘default’ String Output partitioning from Flink’s partitions into Kafka’s partitions. Valid values aredefault: use the kafka default partitioner to partition records.fixed: each Flink partition ends up in at most one Kafka partition.round-robin: a Flink partition is distributed to Kafka partitions sticky round-robin. It only works when record’s keys are not specified.Custom FlinkKafkaPartitioner subclass: e.g. \'org.mycompany.MyPartitioner\'.See the following

以上是关于Flink实战系列Flink SQL 写入 kafka 自定义分区策略的主要内容,如果未能解决你的问题,请参考以下文章

Flink实战系列Flink使用StreamingFileSink写入HDFS(parquet格式snappy压缩)

Flink实战系列Flink SQL 实时同步数据到 Hive

Flink实战系列Flink SQL 如何实现 count window 功能?

Flink 实战系列Flink SQL 实时同步 Kafka 数据到 Hudi(parquet + snappy)

Flink实战系列Flink SQL 之 Session Window 的用法

Flink实战系列Flink SQL 字符串类型的字段如何实现列转行?