开发者社区 > 大数据与机器学习 > 开源大数据平台 E-MapReduce > 正文

Databricks如何ETL Workflow 的自动化?

Databricks如何ETL Workflow 的自动化? 求大佬解答

展开
收起
爱吃鱼的程序员 2020-12-28 13:57:14 991 0
1 条回答
写回答
取消 提交回答
  • https://developer.aliyun.com/profile/5yerqm5bn5yqg?spm=a2c6h.12873639.0.0.6eae304abcjaIB

    YipitData使用Airflow来实现ETLWorkflow的自动化。越来越多的人使用Airflow来管理ETLWorkflow,已经逐渐成为ETL的一个标准工具。对于数据工程师来说,Airflow的使用不是很难:首先构建一个DAG,然后去定义其中的TASK,最后定义下这些TASKS的依赖关系即可。但是,终究是要写一段代码来实现这个过程,就需要有人来维护,对于大多数员工是数据分析师的YipitData来说就不是那么合适了。因此,YipitData使用Airflow+databricks的API来自动化构建DAGs。具体来说,每个文件夹就代表一个DAG,每个Notebook就代表一个Task,Notebook中指定一些属性(内部是python脚本),然后通过API来自动化构建DAG文件。通过上面的过程完成整个ETL的自动化,其中用户只需要指定Notebook中的参数值即可。

    2020-12-28 13:57:31
    赞同 展开评论 打赏

阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。

相关电子书

更多
《阿里云基于Hudi构建Lakehouse实践》 立即下载
Flink CDC:新一代数据集成框架 立即下载
基于Kubernates的流处理平台实践 ——Flink为例 立即下载