数据治理方案技术调研 Atlas VS Datahub VS Amundsen

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS PostgreSQL,集群系列 2核4GB
简介: 数据治理意义重大,传统的数据治理采用文档的形式进行管理,已经无法满足大数据下的数据治理需要。而适合于Hadoop大数据生态体系的数据治理就非常的重要了。大数据下的数据治理作为很多企业的一个巨大的难题,能找到的数据的解决方案并不多,但是好在近几年,很多公司已经进行了尝试并开源了出来,本文将详细分析这些数据发现平台,在国外已经有了十几种的实现方案。

数据发现平台可以解决的问题


为什么需要一个数据发现平台?

在数据治理过程中,经常会遇到这些问题:数据都存在哪?该如何使用这些数据?数据是做什么的?数据是如何创建的?数据是如何更新的?

。。。。。

数据发现平台的目的就是为了解决上面的问题,帮助更好的查找,理解和使用数据。

比如Facebook的Nemo就使用了全文检索技术,这样可以快速的搜索到目标数据。

微信图片_20220528112321.png

用户浏览数据表时,如何快速的理解数据?一般的方式是把列名,数据类型,描述显示出来,如果用户有权限,还可以预览数据。

下面是Amundsen的数据列展示功能。

微信图片_20220528112325.png

数据ETL是一个大问题,特别是如何把这些展示出来更是非常难,其实数据的ETL是可以用数据的流向图表示的,很多平台都支持这种功能,比如 Databook,还有Metcat。

Amundsen就和数据调度平台Airflow有着非常好的结合。


数据发现平台对比


下面一张表 对比一下各大平台对于上述功能的支持情况


搜索 推荐 表描述 数据预览 列统计 占用指标 权限 排名 数据血统 改变通知 开源 文档 支持数据源
Amundsen (Lyft)
Todo
Hive, Redshift, Druid, RDBMS, Presto, Snowflake, etc.
Datahub (LinkedIn)




Hive, Kafka, RDBMS
Metacat (Netflix)


Todo
Todo
Hive, RDS, Teradata, Redshift, S3, Cassandra
Atlas (Apache)





HBase, Hive, Sqoop, Kafka, Storm
Marquez (Wework)







S3, Kafka
Databook (Uber)






Hive, Vertica, MySQL, Postgress, Cassandra
Dataportal (Airbnb)






Unknown
Data Access Layer (Twitter)








HDFS, Vertica, MySQL
Lexikon (Spotify)






Unknown
这里介绍一下五个开源的解决方案

DataHub (LinkedIn)

LinkedIn开源出来的,原来叫做WhereHows 。经过一段时间的发展datahub于2020年2月在Github开源

https://github.com/linkedin/datahub

微信图片_20220528112328.png

可以说是一个非常充满活力的项目,有着表结构,搜索,数据血统等功能,还有用户和组等功能。

官方也提供了文档。开源版本支持Hive,Kafka和关系数据库中的元数据。

所以Datahub的使用率还是非常高的。

微信图片_20220528112332.png

Amundsen (Lyft)

Lyft 于2019年4月开发了Amundsen,并与10月开源。

https://github.com/amundsen-io/amundsen

微信图片_20220528112336.png微信图片_20220528112338.png

Amundsen提供了搜索与排名的功能,帮助更好的查找数据表。

支持的数据源非常丰富,支持hive ,druid等超过15个数据源,而且还提供与任务调度airflow的融合,并提供了与superset等BI工具的集成方式。

而数据血统的功能也正在开发之中。

微信图片_20220528112338.png

Metacat(Netflix)

Netflix在2018年6月开源了Metacat。

Metacat支持Hive,Teradata,Redshift,S3,Cassandra和RDS的集成。

不过虽然Metacat开源,但是官方没有提供文档,资料也很少。

Marquez (WeWork)

Wework于2018年10月开源了Marquez

Marquez也对Airflow有着很好的支持。

微信图片_20220528112341.png

可以看到Marquez还在持续的更新中,保持关注。

微信图片_20220528112345.png

Apache Atlas(Hortonworks)

作为数据治理计划的一部分,Atlas于2015年7月开始在Hortonworks进行孵化。

Atlas 1.0于2018年6月发布,当前版本是2.1。

Atlas的主要目标是数据治理,支持与HBase,Hive和Kafka的集成。

微信图片_20220528112348.png

github地址

https://github.com/apache/atlas

微信图片_20220528112352.png

丰富的文档

微信图片_20220528112355.png


如何选择


首先说一下笔者的选择,虽然对datahub和amundsen非常的感兴趣,最后还是选择了Atlas。

微信图片_20220528112358.png

开源,文档的丰富程度,功能,这些在上文表格中都做了详细的对比,如何选择还是要考虑实际情况。

开源的有五家:Amundsen Datahub Metacat Marquez Atlas

有文档的有三家:Amundsen Datahub Atlas

搜索功能较强 :Amundsen

有数据血统功能:Datahub Atlas

考虑到项目的周期,实施性等情况,还是建议大家从Atlas入门,打开数据治理的探索之路。

当然也有公司同时采用了Atlas和Amundsen,Atlas处理元数据管理,利用Amundsen强大的数据搜索能力来做数据搜索,这也是一种不错的选择。

相关文章
|
5月前
|
消息中间件 分布式计算 DataWorks
DataWorks常见问题之kafka数据导入datahub失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
11月前
|
SQL 关系型数据库 数据管理
Datahub实践——Sqllineage解析Sql实现端到端数据血缘
Datahub实践——Sqllineage解析Sql实现端到端数据血缘
1356 1
|
数据采集 JSON 关系型数据库
将 MySQL 数据抽取并写入 DataHub,您可以按照以下步骤进行
将 MySQL 数据抽取并写入 DataHub,您可以按照以下步骤进行
521 2
|
存储 前端开发 关系型数据库
一站式元数据治理平台——Datahub入门宝典(二)
随着数字化转型的工作推进,数据治理的工作已经被越来越多的公司提上了日程。作为新一代的元数据管理平台,Datahub在近一年的时间里发展迅猛,大有取代老牌元数据管理工具Atlas之势。国内Datahub的资料非常少,大部分公司想使用Datahub作为自己的元数据管理平台,但可参考的资料太少。 所以整理了这份文档供大家学习使用。本文档基于Datahub最新的0.8.20版本,整理自部分官网内容,各种博客及实践过程。
3436 0
一站式元数据治理平台——Datahub入门宝典(二)
|
4月前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之mysql-cdc读取数据写入到datahub中,datahub如何转换时区
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
48 1
|
5月前
|
分布式计算 数据管理 Hadoop
元数据管理平台对比预研 Atlas VS Datahub VS Openmetadata
元数据管理平台对比预研 Atlas VS Datahub VS Openmetadata
1324 57
|
5月前
|
存储 监控 Apache
Flink整库同步 如何把数据丢入到 datahub 中
Flink整库同步 如何把数据丢入到 datahub 中
|
11月前
|
数据采集 大数据 数据挖掘
企业级数据治理工作怎么开展?Datahub这样做
企业级数据治理工作怎么开展?Datahub这样做
167 0
|
11月前
|
大数据
元数据治理平台Datahub学习
元数据治理平台Datahub学习
237 0
|
数据采集 JSON 关系型数据库
将 MySQL 数据抽取并写入 DataHub
将 MySQL 数据抽取并写入 DataHub
247 3