FlinkFlink kafka Spark 如何实现数据有序性

Posted 九师兄

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了FlinkFlink kafka Spark 如何实现数据有序性相关的知识,希望对你有一定的参考价值。


在这里插入图片描述

1.概述

是这这样的。当初有个面试题,说怎么保证数据有序性。记得当初没有经验。然后就用了最笨的方法。

有趣的是,我老大工作五六年了,也是这样想的,没有想到好方法,我们用的是笨的方法。

以前老崇拜老大了,觉得很牛逼,现在发现,其实就是自己不知道,当我知道了没发现也没有那么神秘,而且想出来更多的方法了。

2.笨方法

最笨的方法是,kafka一个分区,FLink一个并行度,Spark一个并行度
在这里插入图片描述
这个首先得局限性是

  1. 分区数固定
  2. flink并行度固定
  3. 资源运行不足
  4. 无法支持大数据量

以上是关于FlinkFlink kafka Spark 如何实现数据有序性的主要内容,如果未能解决你的问题,请参考以下文章

FlinkFlink 小知识点 Flink 同时 保存 offset 到backend 和 kafka 内置 topic

FlinkFlink跨集群访问开启Kerberos认证的Kafka

FlinkFlink 写入 kafka 报错 Transactional Id authorization failed

FLinkFLink 消费 kafka 报错 Selector Close Connection Null NetworkReceive OOM 内存溢出

FlinkFlink 写入 kafka 报错 The server disconnected before a response was received

FlinkFlink 模拟 kafka 消费重启后 能接着读取 保存状态信息