flink standalone 部署模式且不能使用 hdfs 场景下的各种问题及其应对方案

Posted michaelli916

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了flink standalone 部署模式且不能使用 hdfs 场景下的各种问题及其应对方案相关的知识,希望对你有一定的参考价值。

点击上方蓝色“明哥的IT随笔”,关注并选择“设为星标”,keep striving! 欢迎关注知乎同名专栏!

一。背景

笔者所在公司某系统在某证券公司现场部署时,客户出于自己集群使用规划的考量,不允许 flink 访问大数据集群,既不能使用yarn资源管理器,也不能访问hdfs文件系统,而该系统中中 flink 应用程序的数据链路是 flink sql 读取 kafka topic中的数据,进行计算分析后写到es中供下游业务系统使用,计算过程中使用到了 flink 的 table api和sql。

该场景其实是flinkstandalone 部署模式且不能使用 hdfs 的典型场景,我在这里汇总分析了下该场景下相关的技术问题,并结合flink相关技术点的细节和原理,给出了各个问题可能的解决方案,供大家参考。

问题主要分为三大类:jobmanager 高可用部署,catalog配置和使用,以及state backend 配置和使用。

以下是正文。

二。什么是 standalone 部署模式

首先明确下什么是 flink 的standalone 部署模式。

flink的 standalone 部署模式,即standalone deploy mode,是从 flink 集群的resource provider的角度说的,指的是flink直接在操作系统上启动flink 相关服务如client, jobmanager, taskmanager,而不依赖其它资源管理框架如yarn, mesos, k8s进行资源管理。

此时是由 flink直接来进行集群资源管理的,比如监控和重启失败的服务进程,分配和释放资源等等。

需要说明的是,standalone模式下,也可以结合使用docker和k8s (flink将使用k8s作为资源管理框架的模式称为native k8s mode,以跟standalone模式下的k8s进行区分)。

三。standalone 部署模式跟 hdfs 的关系

接着看下 standalone 部署模式跟 hdfs 的关系。

通过以上概念可以看出,flink的standalone模式,跟flink是否能访问大数据集群中的hdfs没有任何关系。

很多standalone模式的flink,仍然使用的是大数据集群中的hdfs,作为job manager 高可用部署的后端存储(high-availability.storageDir),作为 checkpoint 时状态快照的后端存储(state.checkpoints.dir/state.savepoints.dir)。

四。standalone 部署模式且不能使用hdfs场景下各种问题及其应对方案

    最后分析下flinkstandalone 部署模式且不能使用 hdfs 情景下,遇到的各种问题和对应的解决方案。

    

第一个问题是 flink job manager 的高可用部署问题

flink jobmanager ha, 即 flink job manager 高可用部署,需要使用到 zookeeper 集群,也需要一个各个 job manager 节点都可以访问的可持久化的存储系统如 hdfs, s3, ceph, nfs等。

具体到我们的场景,因为不能访问大数据集群,也就不能使用大数据集群中的 zookeeper 和 hdfs。简单起见,我们可以不进行 job manager 的高可用部署(当硬件资源充足,且 flink 集群不是多租户使用时,经过参数调优的 flink 集群运行负载相对稳定的 flink 作业时,job manager 是比较稳定的,做好监控的情况下,不做 Ha 高可用部署问题也不大);或者一定要部署 ha的话,可以在大数据集群之外(如 flink 集群中)单独部署一套 zk 集群供flink ha 使用;同时 high-availability.storageDir 可以配置使用 nfs 等各个 job manager 节点都可以访问的其它持久化存储。


第二个问题是 flink 的 catalog 问题

flink 的 catalog 提供了 flink 访问数据库或其它外部存储系统中存储的数据时所需要的各种元数据,包括库,表,分区,视图,函数等等。

flink内置支持的 catalog 包括GenericInMemoryCatalog/PostgresCatalog/HiveCatalog 三种。

PostgresCatalog是专门为访问 postgres 数据库中数据使用的,其主要功能是使得 flink 能直接读 posgres databases 里面已有的表,省略了 flink sql 端 ddl 的过程,目前也只支持部分 get/list 等 catalog 方法,所以不适合我们这里访问 kafka 数据的场景。

GenericInMemoryCatalog将库表分区视图函数等flink的元数据存储在内存中,这些元数据信息只在该 session 存活期间有效,不支持持久化。具体到我们的场景,如果我们能改造flink sql 代码,在每次创建 sessions 时首先重新执行 ddl 语句对 kafka topic 建表,是可以采用该方案的。

HiveCatalog,flink 的 hive catalog 跟 spark 的 hive catalog 一样,有两种作用:一是作为 flink 中库表分区视图函数等元数据的持久化层,二是作为读写 Hive 中元数据的接口。但同 spark 不同的是,flink hive catalog 需要一个 existing Hive installation , 也需要启动 hive metastoreservice.(spark 使用 hive catalog 时是不需要另外安装 hive 的,因为通过指定参数 -Phive 打包获得的 spark 的二进制包中包括了 hive 相关 jar 包; 也不需要启动 hivemetastore service, 因为 spark 可以直接访问 hive metastore db,这相当于 hive 的 local 模式)。flink hive catalog 需要的 existing Hive installation,可以是大数据集群中的 hive,也可以是独立于大数据集群之外单独安装的hive。具体到我们的场景,如果要使用 hiveCatalog,需要在 flink 集群中某节点上安装 hadoop, hive,mysql;需要启动 Mysql,hive metastoreservice (注意:只需要在某个节点安装 hadoop 和hive 即可,不需要启动 hadoop! 不需要启动hiveserver2!只需要启动hive metastore service)。


第三个问题是 flink 作业的 state backend问题

在 Flink 中,State Backend 有两个功能,一是提供状态 state 的存储和访,二是如果开启了 Checkpoint,会周期向远程的 Durable storage 上传 checkpoint snapshot 数据和返回元数据 (meta) 给 Job Manager。

在FLINK 1.13 之前的 Flink 版本中,以上两个功能是混在一起的,即把状态存储和检查点的创建概念笼统的混在一起,导致初学者对此部分感觉很混乱,很难理解。Flink 1.13 中两个概念被拆开 (FLINK-19463),其中 State Backend 的概念变窄,只描述状态访问和存储;另外一个概念是Checkpoint storage,描述的是 Checkpoint 行为,如 Checkpoint 数据是发回给 JM 内存还是上传到远程。相对应的,配置项也被拆开为 State Backend 和 Checkpoint Storage,可选的选项包括 HashMapStateBackend/EmbeddedRocksDBStateBackend 和 JobManagerCheckpointStorage/FileSystemCheckpointStorage 。

旧式的StateBackend 和新式的 StateBackend + Checkpoint Storage, 完整对应关系如下:

  • MemoryStateBackend() <=> HashMapStateBackend() +JobManagerCheckpointStorage;

  • MemoryStateBackend("file://path") <=> HashMapStateBackend()+ JobManagerCheckpointStorage("file://path");

  • FsStateBackend() <=> HashMapStateBackend() +FileSystemCheckpointStorage();

  • RocksDBStateBackend(new MemoryStateBackend()) <=>EmbeddedRocksDBStateBackend() + JobManagerCheckpointStorage();

  • RocksDBStateBackend(new FsStateBackend()) <=>  EmbeddedRocksDBStateBackend +FileSystemCheckpointStorage();

 

经常使用的三种StateBackend ,其具体配置方式如下:

  • MemoryStateBackend() <=> state.backend: jobmanager/hashmap;

  • FsStateBackend() <=> state.backend: filesystem/hashmap,state.checkpoints.dir: file:///checkpoint-dir/;

  • RocksDBStateBackend() <=> state.backend: rocksdb,state.checkpoints.dir: file:///checkpoint-dir/;

 

经常使用的三种StateBackend,其详细说明和对比如下:

  • MemoryStateBackend() 在 task manager java 堆空间中以 java object 形式存储 state, 在 checkpoint 时会制作 state snapshot 并发送给 Job Manager;

  • FsStateBackend() 在 task manager java 堆空间中以 java object 形式存储 state,在 checkpoint 时会制作 state snapshot 并存储到指定的文件系统目录下,jobManager只在内存中存储了少量元数据,其性能很好,但 state 大小受限于 taskManager 进程的内存;

  • RocksDBStateBackend() 在 task manager 内置的 RocksDB 中存储 state(其本质是使用 task manager 本地磁盘),在 checkpoint 时会对 RocksDB 制作 snapshot 并存储到指定的文件系统目录下,jobManager 只在内存中存储了少量元数据,其可以存储更大的 state (因为 state 是存储在task manager 所在节点的本地磁盘上而不是 taskManager 堆空间中),但性能相对 FsStateBackend() 低一些(因为涉及到 java对象的序列化和反序列以及磁盘读写), 可以支持增量快照。

  • 在开发和测试环境,我们经常使用 MemoryStateBackend(),而在生产环境,我们一般推荐使用第二种FsStateBackend() 或第三种 RocksDBStateBackend()。

 

对应到我们无法使用 hdfs 也没有其它分布式持久化存储的场景下,在生产环境推荐使用FsStateBackend()或 RocksDBStateBackend(), 此时需要配置state.checkpoints.dir 使用本地文件系统。此时可以应对 flink task 的失败和重启,可以应对 task namager 和 jobmanager 的失败和重启,但无法应对物理服务器节点的故障或本地物理磁盘的损坏;(注意:如果有各个节点都可以访问的nfs文件系统,将state.checkpoints.dir 配置为 nfs 从原理上说也行得通,但目前尚未做该部署方案的功能和性能验证)。

五。参考链接

参考链接如下:


https://ci.apache.org/projects/flink/flink-docs-release-1.13/docs/ops/state/state_backends/#migrating-from-legacy-backends

https://ci.apache.org/projects/flink/flink-docs-release-1.13/docs/ops/state/checkpoints/#checkpoint-storage

https://flink.apache.org/2021/01/18/rocksdb.html

https://www.alibabacloud.com/blog/best-practices-and-tips-for-working-with-flink-state-flink-advanced-tutorials_596630

关注不迷路~ 各种福利、资源定期分享欢迎有想法、乐于分享的小伙伴们一起交流学习。欢迎关注知乎同名专栏!

你点的每个在看,我都认真当成了喜欢!

以上是关于flink standalone 部署模式且不能使用 hdfs 场景下的各种问题及其应对方案的主要内容,如果未能解决你的问题,请参考以下文章

Flink的安装和部署--Standalone集群模式

2.Flink安装部署Local本地模式-了解Standalone独立集群模式Standalone-HA高可用集群模式(原理|操作|测试)

Flink从入门到真香(Flink环境部署-集群standalone模式)

Flink部署-standalone模式

flink部署操作-flink standalone集群安装部署

大数据Flink进阶:Flink集群部署