全链路数据湖开发治理解决方案2.0重磅升级,全面增强数据入湖、调度和治理能力

本文涉及的产品
EMR Serverless Spark 免费试用,1000 CU*H 有效期3个月
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 阿里云全链路数据湖开发治理解决方案能力持续升级,发布2.0版本。解决方案包含开源大数据平台E-MapReduce(EMR) , 一站式大数据数据开发治理平台DataWorks ,数据湖构建DLF,对象存储OSS等核心产品。支持EMR新版数据湖DataLake集群(on ECS)、自定义集群(on ECS)、Spark集群(on ACK)三种形态,对接阿里云一站式大数据开发治理平台DataWorks,沉淀阿里巴巴十多年大数据建设方法论,为客户完成从入湖、建模、开发、调度、治理、安全等全链路数据湖开发治理能力,帮助客户提升数据的应用效率。

阿里云全链路数据湖开发治理解决方案能力持续升级,发布2.0版本。解决方案包含开源大数据平台E-MapReduce(EMR) , 一站式大数据数据开发治理平台DataWorks ,数据湖构建DLF,对象存储OSS等核心产品。


解决方案已支持EMR新版数据湖DataLake集群(on ECS)、自定义集群(on ECS)、Spark集群(on ACK)三种形态,对接阿里云一站式大数据开发治理平台DataWorks,沉淀阿里巴巴十多年大数据建设方法论,为客户完成从入湖、建模、开发、调度、治理、安全等全链路数据湖开发治理能力,帮助客户提升数据的应用效率。

1691634831501-e6112e3d-2fa8-4967-be80-54f6e1a98e3d.png


1. 重点能力升级

1.1 增强数据入湖能力

DataWorks 数据集成支持 MySQL 整库实时入湖 OSS(HUDI)、Kafka 实时入湖 OSS(HUDI)、MySQL 到 Hive 整库周期同步能力。


在 DataWorks 管控台选择进入数据集成

截屏2023-06-13 下午2.57.43.png


在页面选择数据来源和数据去向,点击“开始创建”即可进入数据同步的详细配置并使用入湖相关能力。

1.1.png


选择来源和去向类型就可以看到对应入湖能力。


1.1.1 MySQL 整库实时入湖 OSS(Hudi)

支持元数据自动注册到阿里云DLF,方便用户进行湖管理;


支持 MySQL 实例级别的同步,即源端 MySQL 可以同时选择多个库;


支持按照正则表达式选定来源 MySQL 库和表;


支持自动加库加表,即 MySQL 侧增加库或表后,可以自动同步至 OSS,无需手工干预和操作。

1691568114125-84216405-dc26-4560-bea0-fc6f0258dd93 (1).png


1.1.2 Kafka 实时入湖 OSS(Hudi)

支持 Kafka json 数据增量实时入湖,秒级延迟


支持在同步链路中对数据处理,包括数据过滤、脱敏、字符串替换、字段级别赋值等操作


支持根据 kafka json 数据 schema 变化,动态增加字段


支持对接阿里云DLF,入湖元数据自动注册,实时可查可管理


支持自定义 OSS 湖端存储路径


222.png

1.1.3 MySQL 整库离线同步至 Hive

MySQL 整实例级别离线同步至 Hive,支持配置周期调度,也可以在 DataStudio 中依赖此同步调度节点为上游,支持历史全量同步和离线增量同步

333.png

1.2 增强作业开发调度能力

1.2.1 支持 spark on ACK 集群调度

DataWorks 支持调度 spark-submit, spark-sql 类型作业到 EMR Spark 集群(on ACK), 用户可以利用 ACK 的弹性能力按需调整集群资源,实现和应用程序混部,使用同一套运维方案的同时,最大程度利用资源。对于原先在新版数据湖 DataLake 集群和自定义集群中运行的 Spark 任务,支持一键迁移到 ACK 集群,无需修改代码。


1.2.2 开发能力升级

支持空间内各模块设置 yarn 队列

随着越来越多的客户开始使用数据湖处理数据、分析数据,计算资源优先保障重要ETL任务产出成为了普遍诉求。DataWorks 支持为不同模块设置任务的 yarn 队列,包括数据分析、数据开发、运维等,保障不同场景的计算资源隔离需求。


支持工作空间级别 Spark Conf 设置

很多用户发现为每个 spark 作业设置 conf 是一件比较繁琐的事情。而集群往往多部门共享,在集群级别做 default 设置会影响到其他用户。DataWorks 在支持单任务设置 conf 的同时,提供工作空间级别设置 spark conf 的能力, 作用于空间下的所有 spark 任务。


支持数据分析下载最多500万条记录

支持管理员设置最大下载量,通过数据分析模块,最多支持500万行数据下载到本地。


1.3 增强数据治理能力

数据治理中心能力升级

1.3.1 支持基于数据湖架构的数据健康分评估

Dataworks 数据治理中心提供覆盖事前问题检测、事中问题拦截、事后问题发现的主动式数据治理能力。新增对 Dataworks 数据开发+DLF元数据管理用户,进行多维度数据健康分评估。

1691977526204-0549f680-d28b-4f23-a5c6-a0ab5b407800 (1).png


1.3.2 支持基于研发/存储维度的数据治理问题识别

面向 E-MapReduce 用户可支持数据规范治理场景,内置研发、存储、安全维度的十余类内置治理项及知识库,可面向 Dataworks EMR 研发过程中的数据任务及存储问题,进行基于治理项规则的自动问题发现,推动负责人进行问题的及时治理。

1691977473802-8ef565a1-354a-4688-ab8b-8531ed18bc02 (1).png


1.3.3 数据治理中心支持基于 EMR Hive/Spark SQL 任务的事前主动治理

Dataworks 数据治理中心新增10种内置数据检查项,可针对 Dataworks 数据研发侧的 Hive SQL 及 Spark SQL 任务,针对提交、发布环节,进行数据问题的检查和自动拦截,进行事前问题预防。

1691978018408-ac160eeb-fc5e-4397-98ea-4f207e94ff47 (2).png

1691977875880-3f2cc81f-c165-4799-b72e-99446bd94256 (1).png


钉钉扫码入群,体验dataworks on emr 数据湖治理并获得首月开通优惠大礼包

1691999872094-9bea971a-5247-457c-b74e-63db2fe1712e.png

目录
相关文章
|
2月前
|
SQL 分布式计算 关系型数据库
Dataphin x Paimon 开箱即用的数据湖治理解决方案
Dataphin深度集成Apache Paimon,通过全链路功能适配和性能优化,为企业提供开箱即用的数据湖治理解决方案。
218 2
|
4月前
|
SQL 存储 运维
别让运维数据“各过各的”:聊聊数据湖怎么搭,才能不成“沼泽”
别让运维数据“各过各的”:聊聊数据湖怎么搭,才能不成“沼泽”
171 0
|
2月前
|
存储 机器学习/深度学习 数据采集
一文讲透数据仓库、数据湖、数据海的区别
企业常因数据架构不清导致报表延迟、数据矛盾、利用困难。核心解法是构建数据仓库(高效分析)、数据湖(灵活存储原始数据)和数据海(全局集成)。三者各有适用场景,需根据业务需求选择,常共存互补,助力数据驱动决策。
一文讲透数据仓库、数据湖、数据海的区别
|
3月前
|
存储 人工智能 分布式计算
数据不用搬,AI直接炼!阿里云AnalyticDB AI数据湖仓一站式融合AI+BI
阿里云瑶池旗下的云原生数据仓库AnalyticDB MySQL版(以下简称ADB)诞生于高性能实时数仓时代,实现了PB级结构化数据的高效处理和分析。在前几年,为拥抱大数据的浪潮,ADB从传统数仓拓展到数据湖仓,支持Paimon/Iceberg/Delta Lake/Hudi湖格式,为开放的数据湖提供数据库级别的性能、可靠性和管理能力,从而更好地服务以SQL为核心的大规模数据处理和BI分析,奠定了坚实的湖仓一体基础。
|
SQL 分布式计算 Apache
Dataphin x Iceberg 开箱即用的数据湖治理解决方案
Apache Iceberg作为新一代开源数据湖表格式,具备ACID事务、时间旅行和高效Schema演化等能力。Dataphin已完成与Iceberg的深度集成,通过全链路适配与性能优化,为企业提供开箱即用的数据湖治理方案,涵盖数据源支持、离线与实时数据集成、数据研发等核心模块,助力构建现代化数据架构。
226 0
|
11月前
|
存储 SQL 大数据
从数据存储到分析:构建高效开源数据湖仓解决方案
今年开源大数据迈向湖仓一体(Lake House)时代,重点介绍Open Lake解决方案。该方案基于云原生架构,兼容开源生态,提供开箱即用的数据湖仓产品。其核心优势在于统一数据管理和存储,支持实时与批处理分析,打破多计算产品的数据壁垒。通过阿里云的Data Lake Formation和Apache Paimon等技术,用户可高效搭建、管理并分析大规模数据,实现BI和AI融合,满足多样化数据分析需求。
|
11月前
|
SQL 存储 分布式计算
Paimon助力数据湖仓架构实时化升级
本次分享由阿里云高级技术专家李劲松介绍Paimon助力数据湖仓架构实时化升级。内容涵盖四个部分:1) 数据架构的存储演进,介绍Data LakeHouse结合的优势;2) Paimon实时数据湖,强调其批流一体和高效处理能力;3) 数据湖的实时流式处理,展示Paimon在时效性提升上的应用;4) 数据湖非结构化处理,介绍Paimon对非结构化数据的支持及AI集成。Paimon通过优化存储格式和引入LSM技术,实现了更高效的实时数据处理和查询性能,广泛应用于阿里巴巴内部及各大公司,未来将进一步支持AI相关功能。
|
存储 数据采集 数据挖掘
数据仓库VS数据湖:选择正确的数据存储解决方案
【8月更文挑战第23天】企业在选择数据存储解决方案时,应综合考虑业务需求、数据特性、技术实力及成本效益等多方面因素,以做出最符合自身发展的决策。
1240 2
|
存储 SQL 分布式计算
基于Apache Hudi + MinIO 构建流式数据湖
基于Apache Hudi + MinIO 构建流式数据湖
581 1
|
9月前
|
存储 分布式计算 大数据
基于阿里云大数据平台的实时数据湖构建与数据分析实战
在大数据时代,数据湖作为集中存储和处理海量数据的架构,成为企业数据管理的核心。阿里云提供包括MaxCompute、DataWorks、E-MapReduce等在内的完整大数据平台,支持从数据采集、存储、处理到分析的全流程。本文通过电商平台案例,展示如何基于阿里云构建实时数据湖,实现数据价值挖掘。平台优势包括全托管服务、高扩展性、丰富的生态集成和强大的数据分析工具。