Flink实战之Kafka To Hive

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Flink实战之Kafka To Hive相关的知识,希望对你有一定的参考价值。

参考技术A 传统的入库任务一般借助于MapReduce或者Spark来写hive表,一般都是天级别最多小时级别的任务。随着实时性要求越来越高,传统的入库不太能满足需求。Flink完全基于流式处理,同时也支持了写Hive表。本文介绍一下如果通过FlinkSQL实现kafka数据入库hive,并能够实时可查。

由于写hive表必须基于hive catalog,所以需要 注册hive catalog 。同时可以在一个job内切换catalog,如果我们不想把kafka的source table注册到hive metastore里面,那么就可以使用memory catalog。

完整SQL如下

以上sql需要借助 sql submit 来提交。

对于已有的hive表,同样也是可以写入的。但是得通过
alter table table_name set tblproperties('property_name'='new_value');语法将flink需要用到的属性设置进去。

以上是关于Flink实战之Kafka To Hive的主要内容,如果未能解决你的问题,请参考以下文章

Flink的sink实战之二:kafka

Flink的sink实战之四:自定义

Flink实战系列Flink SQL 写入 kafka 自定义分区策略

Flink实战系列Flink 读取 Hive 数据同步到 Kafka

Flink消费kafka消息实战

Flink消费kafka消息实战