airflow是什么

简介: Apache Airflow是一个用于调度和监控有依赖任务的工作流平台,它使用Python编程定义任务和工作流,提供了命令行和Web界面工具,支持包括Spark、MR、Hive在内的多种数据处理任务的提交和管理。

Airflow 简介

Airflow是一个基于有向无环图(DAG)的可编程、调度和监控的工作流平台,它可以定义一组有依赖的任务,按照依赖依次执行。airflow提供了丰富的命令行工具用于系统管控,而其web管理界面同样也可以方便的管控调度任务,并且对任务运行状态进行实时监控,方便了系统的运维和管理。

Airflow 特性

  1. airflow是一个用来对例行任务进行调度的平台,可以将所有有依赖关系的任务整合在一起。
  2. airflow有两个比较重要的概念:DAG和task,一个task表示一个任务,多个有依赖关系的task组织在一起就是一个DAG。
  3. airflow中DAG和task都需要写一段python代码来实现,使用者需要有部分python基础知识。
  4. 我们的每一个任务(task)都可以归纳为一种操作(Operator):比如执行一段shell指令可以理解为BashOperator、运行一个spark任务可以理解为一个SparkOperator。有一些比较特殊的操作,比如判断一个目录是否存在,在airflow中属于SensorOperator。
  5. 大数据部对airflow提交spark、mr、hive等集群任务都使用genie提交,对这类任务统一封装成了GenieOperator。(genie是另一个开源服务,通过genie可以远程提交到多个集群)
相关文章
|
消息中间件 存储 监控
五分钟快速了解Airflow工作流
简介 Airflow是一个以编程方式创作、调度和监控工作流的平台。 使用 Airflow 将工作流创作为有向无环图(DAG)任务。 Airflow 调度程序按照你指定的依赖项在一组workers上执行您的任务。同时,Airflow拥有丰富的命令行实用程序使得在DAG上进行复杂的诊断变得轻而易举。并且提供了丰富的用户界面使可视化生产中运行的工作流、监控进度和需要排查问题时变得非常容易。 当工作流被定义为代码时,它们变得更易于维护、可版本化、可测试和协作。
|
6月前
|
分布式计算 Shell 调度
看看airflow怎样调度python写的spark任务吧
看看airflow怎样调度python写的spark任务吧
96 0
|
7月前
|
存储 数据安全/隐私保护 Docker
Airflow安装
Airflow安装
152 0
|
7月前
|
SQL 调度 数据库
Airflow的Dag
Airflow的Dag
102 0
|
7月前
|
存储 监控 Linux
Airflow【部署 01】Airflow官网Quick Start实操(一篇学会部署Airflow)
【2月更文挑战第7天】Airflow【部署 01】Airflow官网Quick Start实操(一篇学会部署Airflow)
630 1
|
7月前
|
消息中间件 监控 数据可视化
Airflow基本概念
Airflow基本概念
116 0
|
XML 分布式计算 数据可视化
本地部署 zeppelin 0.10.1
本地部署 zeppelin 0.10.1
236 0
|
Linux 数据安全/隐私保护 Docker
Airflow容器化安装
1. 下载容器配置文件 2. 创建用户和用户组(airflow) 3.设置用户airflow为管理员 4. 在airflow用户下,pip 安装celery 和 apache-airflow (python3.8) 5. 初始化镜像 6. 启动容器
Airflow容器化安装
|
关系型数据库 MySQL 调度
作业调度中心Apache Airflow部署初体验
作业调度中心Apache Airflow部署初体验
1179 0
作业调度中心Apache Airflow部署初体验