Flink实战系列Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/

Posted JasonLee实时计算

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink实战系列Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/相关的知识,希望对你有一定的参考价值。

java.lang.AbstractMethodError: Method flink/stream/deserialization/PoJoDeserializationSchema.deserialize(Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/lang/Object; is abstract

背景介绍

Flink 消费 kafka 数据在使用自定义的反序列化类 PoJoDeserializationSchema 的时候遇到上面的报错,这里说明一下,如果你直接使用 SimpleStringSchema 反序列化是不会遇到这个问题的,另外一点,我这里使用的是 flink-sql-connector-kafka-1.15.0.jar 这个包,这里顺便在说一下 flink-connector-kafka-1.15.0.jar 和 flink-sql-connector-kafka-1.15.0.jar 这两个包的区别,因为我发现很多同学搞不清楚这两个包的关系,首先从名字上就能看出一个带 sql 一个不带,他们的使用场景是不一样的,如果我们是用 datastream api 开发的代码一般会使用 flink-connector-kafka-1.15.0.jar 这个包,如果我们是用 sql/table api 比如在 sql-client 里面通过 SQL 提交任务,那么我们需要添加 flink-sql-

以上是关于Flink实战系列Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/的主要内容,如果未能解决你的问题,请参考以下文章

Flink实战系列Flink 如何实现全链路延迟监控

Flink实战系列Flink 本地 Web UI 的配置及使用

Flink 实战系列如何给 Flink 任务设置合理的并行度?

Flink实战系列Flink SQL 实时同步数据到 Hive

Flink实战系列Flink SQL 如何实现 count window 功能?

Flink 实战系列Flink CDC 实时同步 Mysql 全量加增量数据到 Hudi