Flink 实战系列Flink SQL 使用 filesystem connector 同步 Kafka 数据到 HDFS(parquet 格式 + snappy 压缩)

Posted JasonLee实时计算

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink 实战系列Flink SQL 使用 filesystem connector 同步 Kafka 数据到 HDFS(parquet 格式 + snappy 压缩)相关的知识,希望对你有一定的参考价值。

Flink SQL 同步 Kafka 数据到 HDFS(parquet + snappy)

在上一篇文章中,我们用 datastream API 实现了从 Kafka 读取数据写到 HDFS 并且用 snappy 压缩,今天这篇文章我们来实现一个 Flink SQL 版本的,为了方便我直接采用 sql-client 提交任务的方式来演示。

添加 jar 包

第一步肯定是添加我们需要的 jar 包了,一共需要下面这几个 jar 包:

flink-connector-files-1.15.1.jar
flink-sql-connector-kafka-1.15.1.jar
flink-sql-parquet-1.15.1.jar
hadoop-mapreduce-client-core-2.9.0.jar

因为我们用的是 Flink SQL,那 flink-parquet 有一个专门为 SQL 使用而打的包 flink-sql-parquet-1.15.1.jar。

以上是关于Flink 实战系列Flink SQL 使用 filesystem connector 同步 Kafka 数据到 HDFS(parquet 格式 + snappy 压缩)的主要内容,如果未能解决你的问题,请参考以下文章

Flink实战系列Flink SQL 如何实现 count window 功能?

Flink 实战系列Flink SQL 实时同步 Kafka 数据到 Hudi(parquet + snappy)

Flink 实战系列Flink SQL 使用 filesystem connector 同步 Kafka 数据到 HDFS(parquet 格式 + snappy 压缩)

Flink 实战系列Flink SQL 使用 filesystem connector 同步 Kafka 数据到 HDFS(parquet 格式 + snappy 压缩)

Flink实战系列Flink SQL 字符串类型的字段如何实现列转行?

Flink实战系列Flink SQL 字符串类型的字段如何实现列转行?