Lakehouse 架构解析与云上实践
Posted 阿里云云栖号
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Lakehouse 架构解析与云上实践相关的知识,希望对你有一定的参考价值。
简介:本文整理自 DataFunCon 2021大会上,阿里云数据湖构建云产品研发陈鑫伟的分享,主要介绍了 Lakehouse 的架构解析与云上实践。
作者简介:陈鑫伟(花名熙康),阿里云开源大数据-数据湖构建云产品研发
内容框架
- Lakehouse 概念与特性
- Lakehouse 架构与实现
- 云上 Lakehouse 架构与实践
- 案例分享及未来展望
Lakehouse 概念与特性
数据架构的演进
1980年后期,以 Teradata、Oracle 等产品为代表的数据仓库,主要用于解决 BI 分析和报表的数据采集与计算需求。通过内置存储系统,对上层提供数据抽象,数据经过清洗和转化,以已定义的schema结构写入,强调建模和数据管理以提供更好的性能和数据一致性,具备细粒度的数据管理和治理能力;支持事务、版本管理;数据深度优化,和计算引擎深度集成,提升了对外的 SQL 查询性能。然而,随着数据量的增长,数据仓库开始面临若干挑战。首先是存储和计算耦合,需要根据两者峰值采购,导致采购成本高、采购周期长;其次越来越多的数据集是非结构化的,数据仓库无法存储和查询这些数据;此外,数据不够开放,导致不易用于其他高级分析(如 ML )场景。
随着 Hadoop 生态的兴起,以 HDFS、S3、OSS 等产品为代表,统一存储所有数据,支持各种数据应用场景,架构较为复杂的数据湖开始流行。以基于 HDFS 存储、或者基于云上的对象存储这种相对低成本、高可用的统一存储系统,替换了原先的底层存储。可以存储各种原始数据,无需提前进行建模和数据转化,存储成本低且拓展性强;支持半结构化和非结构化的数据;数据更加开放,可以通过各种计算引擎或者分析手段读取数据,支持丰富的计算场景,灵活性强且易于启动。不过随着十年来的发展,数据湖的问题也逐渐暴露。数据链路长/组件多导致出错率高、数据可靠性差;各个系统间不断的数据迁移同步给数据一致性和时效性带来挑战;湖里的数据杂乱无章,未经优化直接访问查询会出现性能问题;整体系统的复杂性导致企业建设和维护成本高等。
为了解决上述问题,结合数据湖和数据仓库优势的 LakeHouse 应运而生。底层依旧是低成本、开放的存储,上层基于类似 Delta lake/Iceberg/Hudi 建设数据系统,提供数据管理特性和高效访问性能,支持多样数据分析和计算,综合了数据仓库以及数据湖的优点形成了新的架构。存算分离架构可以进行灵活扩展;减少数据搬迁,数据可靠性、一致性和实时性得到了保障;支持丰富的计算引擎和范式;此外,支持数据组织和索引优化,查询性能更优。不过,因为 LakeHouse 还处于快速发展期,关键技术迭代快且成熟的产品和系统少。在可借鉴案例不多的情况下,企业如果想采用 LakeHouse,需要有一定技术投入。
数据架构的对比
上图从多维度对数据仓库、数据湖、LakeHouse 进行了对比,可以明显看到 LakeHouse 综合了数据仓库和数据湖的优势,这也是 LakeHouse 被期待为“新一代数据架构基本范式”的原因。
Lakehouse 架构与实现
Lakehouse 架构图
Lakehouse = 云上对象存储 + 湖格式 + 湖管理平台
访问层
- 元数据层查询和定位数据
- 对象存储支持高吞吐的数据访问
- 开放的数据格式支持引擎直接读取
- Declarative DataFrame API 利用SQL引擎的优化和过滤能力
优化层
- Caching、Auxiliary data structures(indexing and statistics)、data layout optimization,Governance
事务层
- 实现支持事务隔离的元数据层,指明每个Table版本所包含的数据对象
存储层
- 云上对象存储,低成本,高可靠性,无限扩展,高吞吐,免运维
- 通用的数据格式,Parquet / Orc 等
Lakehouse 实现核心--湖格式
本文主要围绕 Delta Lake、IceBerg 两种湖格式展开介绍 Lakehouse 的特性。
Delta Lake
Delta Lake
关键实现:事务日志 – Single Source of Truth
- 事务日志以事务提交为粒度,按序记录了所有对表的操作
- 串行化隔离写操作,写操作保证原子性,MVCC+乐观锁控制并发冲突
- 快照隔离读操作,支持读历史版本数据,实现时间旅行
- 文件级别数据更新重新,实现局部数据更新和删除
- 基于增量日志的数据处理
Delta Lake on EMR
针对 Delta Lake 开源版本的不足之处,阿里云 EMR 团队做了如下功能开发:
Optimize& Zorder
- 支持Zorder重新布局数据,结合dataskipping加速查询
- 实现高效的Zorder执行,7.8亿数据,2个字段,20分钟完成
- 支持Optimize,解决小文件问题,并支持自动compact
SavePoint
- 支持创建/删除/查询SAVEPOINT,永久保留指定版本的数据
Rollback
- 回退到历史某版本,用于修复数据
自动同步元数据到MetaStore
- 无需额外操作,将完整表信息和分区信息自动同步到metastore,用于Hive/Presto查询等;
多引擎查询支持
- 支持 Hive / Trino / Impala / 阿里云 MaxCompute 查询
Iceberg
Iceberg
关键实现:基于 Snapshot 的元数据层
- Snapshot 中记录表当前版本的所有文件
- 每次写操作提交一个新的版本
- 基于 Snapshot 的读写隔离
基于snapshot差异做增量数据消费
Iceberg on EMR
阿里云在 Iceberg 上做的贡献:
Optimize
- 结合 JindoFS 提供缓存加速
- 自动小文件合并事务
阿里云云生态对接
- 原生接入 OSS 对象存储
- 原生接入 DLF 元数据
开源社区投入
- 1位 IcebergPMC,1位 Iceberg Committer
- 贡献和维护 Iceberg 与 Flink 的集成模块
- 主导并设计社区的 MOR 流式 upsert 功能
中文社区运营
- 维护国内最大的 Apache Iceberg 数据湖技术社区(成员1250+)。
- 国内最活跃的 Apache Iceberg 布道师之一:
- 组织举办 Apache Iceberg 深圳站、Apache Iceberg 上海站
选型参考
云上 Lakehouse 架构与实践
Databricks 在推出 Lakehouse 的概念后,就把公司的介绍改成了 The Databricks Lakehouse Platform。如下方的架构图所示,底层是云的基础设施(其中阿里云跟 Databricks 也有合作推出 Databricks 数据洞察);数据入湖之后,在开放的数据存储之上,是结合了 Delta Lake 数据湖格式的较为重点的数据管理和治理层(Data Management and Governance)。
数据湖构建、管理、与分析过程
- 数据入湖与清洗
来自各个数据源的数据,以全量、增量、实时、ETL、数据迁移、元数据注册等方式入湖并清洗
- 数据存储与管理
- 元数据管理与服务
- 权限控制与审计
- 数据质量控制
- 湖表管理与优化
- 存储管理与优化
- 数据分析与训练
覆盖数据建模与开发、离线分析、实时计算、交互式分析、机器学习和算法等场景
- 数据服务与应用
- 将训练分析后的数据同步到需求对应产品进行深度分析或进一步处理
- 直接对接商业智能、实时监控、数据科学、数据可视化等数据应用
阿里云 Lakehouse 架构
- 数据层(数据湖核心能力)
- 计算层(弹性计算引擎)
- 平台层(数据开发与治理)
DLF 统一元数据服务与治理
- 统一元数据与统一权限
- 完全兼容 HMS 协议,支持多引擎访问
- 多引擎统一权限控制
- 利用云上 KV 存储提供高扩展性、高性能服务
- 支持 Delta lake/Hudi/Iceberg 元数据同步,统一视图
- 以 Delta lake 支持多引擎访问为例
- 多形态Spark:DLF 数据探索、Databrick Spark、Maxcompute Serverles Spark
- 实时计算:Flink(对接中)
- EMR 交互式分析:Trino、Impala
- EMR Hive :阿里云贡献给社区的Delta Connector,完全开源
- 湖元数据治理
- 基于历史数据的元数据分析和管理
- 成本分析与优化、冷热分析与性能优化
CDC 入湖产品化
- 多种数据源0代码构建数据流
- 模板+配置 => Spark任务
- 入湖工厂,自动生成Spark SQL / Dataframe Code
- 多种数据源 CDC 入湖,自动同步元数据
以 Hudi 为例
- mysql、Kafka、Log Service、 TableStore 等实时写入 Hudi 数据湖
- 结合 Flink CDC,支持全托管和半托管Flink实时写入 Hudi 数据湖并同步元数据到 DLF,供其他引擎进一步分析。
- Hudi社区贡献
- 阿里云贡献 Spark SQL 和 Flink SQL 读写 Hudi
- 实现 MERGER INTO 等 CDC 常用算子
数据湖治理
- 基于平台提供自动化的治理服务
以 Iceberg 为例
- Compact / Merge / Optmize
- Expire-snapshot / Vacuum
- Caching(基于JindoFS)
- 自动数据冷热分析及分层归档
- Serverless Spark提供低成本托管资源池务
案例分享及未来展望
案例分享1:全托管数据湖方案
大数据平台架构:
在上云之前,客户的大数据部署在 IDC 机房,基于 CDH 自建的 Hadoop 集群。因为自建 IDC 机房安全性和稳定性没有保障,容灾能力差。客户决定将大数据平台迁移上云。
案例详细介绍:百草味基于“ EMR+Databricks+DLF ”构建云上数据湖的最佳实践-阿里云开发者社区
全托管数据湖方案:
以 RDS 关系型数据库为例
数据可以通过 Spark 进行 ETL 后入湖,或者通过在 DLF 上托管的 CDC 增量入湖/ Batch 全量入湖导入到对象存储 OSS中,在统一的元数据管理之下:
- 基于 Spark Streaming 做实时分析,进行实时报表/监控的展现
- 通过阿里云上 Databricks 数据洞察进行 ETL 任务,进行数据建模和进一步处理
- 拉起 EMR Presto 集群,以满足交互式分析场景
- 批流一体,链路简单清晰
- Delta lake + Spark 实现实时计算和离线分析
- 全托管服务,免运维
- OSS存储托管
- DLF元数据和入湖任务托管
- DDI Spark引擎托管
- 数据开放
- 快速接入Presto做交互式分析
在这套方案中,除了半托管的 EMR Presto,其余组件都是全托管的。无论是底层存储,还是元数据或者 Spark 引擎的管理,无需用户自行管理,也不需要进行组件的维护和升级。提升使用体验的同时,大大降低了运维成本。
案例分享2:存算分离实时数据湖
这是一个存算分离的实时数据湖案例。用户本来使用的是存算一体架构,Hive 元数据信息存储在 Hive MetaStore,数据存储在 HDFS 中,经常会出现坏盘的情况,给运维带来麻烦的同时增加了成本。另一方面 Hive Metastore 在数据量到达一定程度后,比如 Partition 分区数到了10万级别后,性能上会受到很大挑战。所以用户决定进行存算一体到存算分离架构的迁移。
- 存算一体—> 存算分离
- HDfs运维困难 -> OSS免运维
- HDFS云盘成本高 -> OSS成本低
- HMS扩展性差 -> DLF元数据扩展性高
- Flink实时入湖,Spark/Hive分析
- Flink -> Hudi高效实时写入能力
- DLF元数据天然打通Spark/Hive
- Hbase服务和数据分离
Lakehouse 未来展望
- 湖格式能力会不断增强,接近数仓/数据库的能力
- 多表事务(AWS Governed Table)
- Optimize 功能越来越丰富(Caching,Clustering,Z-Ording。。。)
- 三种湖格式能力不断追平
- 湖格式与存储/计算集成度越来越高,以获得更高的性能
- 存储层会出现面向湖格式的定制 API
- 为计算层提供更多面向性能优化的方案(二级索引,Column statistics)
- 湖管理平台能力越来越丰富和智能化
- 统一元数据服务成为标配,Meta 托管化、服务化(Hudi Timeline Server)
- 治理和优化成为平台基础能力,并对用户不可见
综上,无论是从 Lakehouse 的特性来看,或是从各个厂商在 Lakehouse、在湖格式上的探索及建设来看,Lakehouse 很可能成为新一代大数据架构。
本文为阿里云原创内容,未经允许不得转载。
以上是关于Lakehouse 架构解析与云上实践的主要内容,如果未能解决你的问题,请参考以下文章
云计算与云原生 — 微服务架构 Kong APIGW 完全解析