Flink实战系列Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/
Posted JasonLee实时计算
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink实战系列Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/相关的知识,希望对你有一定的参考价值。
java.lang.AbstractMethodError: Method flink/stream/deserialization/PoJoDeserializationSchema.deserialize(Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/lang/Object; is abstract
背景介绍
Flink 消费 kafka 数据在使用自定义的反序列化类 PoJoDeserializationSchema 的时候遇到上面的报错,这里说明一下,如果你直接使用 SimpleStringSchema 反序列化是不会遇到这个问题的,另外一点,我这里使用的是 flink-sql-connector-kafka-1.15.0.jar 这个包,这里顺便在说一下 flink-connector-kafka-1.15.0.jar 和 flink-sql-connector-kafka-1.15.0.jar 这两个包的区别,因为我发现很多同学搞不清楚这两个包的关系,首先从名字上就能看出一个带 sql 一个不带,他们的使用场景是不一样的,如果我们是用 datastream api 开发的代码一般会使用 flink-connector-kafka-1.15.0.jar 这个包,如果我们是用 sql/table api 比如在 sql-client 里面通过 SQL 提交任务,那么我们需要添加 flink-sql-
以上是关于Flink实战系列Lorg/apache/flink/kafka/shaded/org/apache/kafka/clients/consumer/ConsumerRecord;)Ljava/的主要内容,如果未能解决你的问题,请参考以下文章
Flink实战系列Flink 本地 Web UI 的配置及使用
Flink 实战系列如何给 Flink 任务设置合理的并行度?
Flink实战系列Flink SQL 实时同步数据到 Hive