栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 前沿技术 > 大数据 > 大数据系统

湖仓方案DeltaLake、Hudi、Iceberg功能对比

湖仓方案DeltaLake、Hudi、Iceberg功能对比

简介 DeltaLake

DeltaLake是一个致力于在数据湖之上构建湖仓一体架构的开源项目。
DeltaLake支持ACID事务,可扩展的元数据存储,在现有的数据湖(S3、ADLS、GCS、HDFS)之上实现流批数据处理的统一。
官网地址:https://delta.io
当前版本:1.1.0

Hudi

Hudi是新一代的流式数据湖平台,在开源的文件系统之上引入了数据库的表、事务、高效的更新/删除、索引、流式写服务、数据合并、并发控制等功能及特性。
官网地址:https://hudi.apache.org/
当前版本:0.10.0

Iceberg

Iceberg是一个用于处理海量分析数据集的开放表格式。支持 Spark, Trino, PrestoDB, Flink and Hive等计算引擎,操作Iceberg如SQL table一样。
官网地址:https://iceberg.apache.org (吐槽:官网打开真的很慢)
当前版本:0.12.1

功能对比
对比项DeltaLakeApache HudiApache Iceberg
update/deleteYesYesYes
文件合并ManuallyAutomaticManually
历史数据清理AutomaticAutomaticManually
文件格式parquetparquet and avroParquet,avro,orc
计算引擎Hive/Spark/PrestoHive/Spark/Presto/FlinkHive/Spark/Presto/Flink
存储引擎HDFS/S3/AzureHDFS/S3/OBS/ALLUXIO/AzureHDFS/S3
SQL DMLYesYesYes
ACID transactionYesYesYes
TimeLineYesYesYes
索引NoYesNo
可扩展的元数据存储YesYesYes
Schema约束和演化YesYesYes
相同点
    都支持update/delete都支持ACID, 原子性、一致性、隔离性、持久性,避免垃圾数据的产生,保证了数据质量都能支持主流的高可用存储HDFS、S3都提供了对Spark的支持,数据的写入都需要一个Spark Job去完成。都是以java package(–jars)方式引入到Spark。读写都是以java library的方式引入到相关的执行引擎(Spark/Hive/Presto/Flink),不需要启动额外的服务都可以自行管理元数据,元数据保存在HDFS/S3都支持Spark/Hive/Presto都支持TimeLine
不同点
    文件合并,Hudi支持自动合并,DeltaLake和Iceberg支持手动合并(额外定时调度)数据清理,Hudi和DeltaLake和自动清理过期数据文件; Iceberg支持手动清理(额外定时调度)文件格式:
    DeltaLake支持Parquet的文件格式。
    Hudi数据主要保存在Parquet文件,增量数据以行的方式写入Avro文件,合并操作会把指定时间范围内的Avro文件数据写入Parquet文件。
    Iceberg 支持Parquet、Avro、ORC。Hudi支持索引Hudi 和 IceBerg支持Flink批流读写
部分功能描述 TimeLine

意思时间线,用于支持时间旅行(Time travel)。即根据用户的提供的时间戳,可以访问到历史某一事件点的数据快照。只要数据快照没有被清理掉,就可以被访问到。

Schema约束和演化

Schema约束(Schema Enforcement):是指源和目标表的字段的数据类型需要一致,严格时可要求字段的数量一致。

Schema演化(Schema Evolution):是指目标表可以根据源表的Schema变化而相应的变化,如增减字段,字段类型变更。一般不支持改变字段的顺序。

阅读相关

数据湖:《什么是数据湖》
湖仓一体:《什么是湖仓一体》

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/718943.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号