Hive Read & Write Flink

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hive Read & Write Flink相关的知识,希望对你有一定的参考价值。

参考技术A 通过HiveCatalog,可以使用Apache Flink对Apache Hive表进行统一的批处理和流处理。这意味着Flink可以作为Hive的批处理引擎的一个性能更好的替代,或者可以持续地在Hive表中读写数据,从而为实时数据仓库应用程序提供动力。

Flink支持在批处理和流模式下从Hive写入数据。当作为批处理应用程序运行时,Flink将只在作业完成时才将这些记录写入Hive表。批写既支持追加现有表,也支持重写现有表。

数据也可以插入到特定的分区

流写不断地向Hive添加新数据,以增量的方式提交记录——使其可见。用户通过几个属性控制何时/如何触发提交。流写不支持插入覆盖。

下面展示了如何使用流接收器写一个流查询,将数据从Kafka写入到Hive表中,并提交分区,然后运行一个批量查询将数据读出来。

有关可用配置的完整列表,请参阅流接收器。

以上是关于Hive Read & Write Flink的主要内容,如果未能解决你的问题,请参考以下文章

flink hive read&write ---- flink-1.12

flink hive read&write ---- flink-1.12

SDK中的readonly&readwrite

mmap为什么比read/write快

在 async_read_until 之后使用 async_write 的问题

vimdff cannot read or write temp files