Apache Tez Design

简介:

Tez aims to be a general purpose execution runtime that enhances various scenarios that are not well served by classic Map-Reduce. 
In the short term the major focus is to support Hive and Pig, specifically to enable performance improvements to batch and ad-hoc interactive queries.

image

 

What services will Tez provide

Tez兼容传统的map-reduce jobs, 当然主要focus提供基于DAG的jobs和相应的API以及primitives. 

Tez provides runtime components:

  • An execution environment that can handle traditional map-reduce jobs
  • An execution environment that handles DAG-based jobs comprising various built-in and extendable primitives
  • Cluster-side determination of input pieces
  • Runtime planning such as task cardinality determination and dynamic modification to the DAG structure


Tez provides APIs to access these services:

  • Traditional map-reduce functionality is accessed via java classes written to the Job interface: org.apache.hadoop.mapred.Job and/or org.apache.hadoop.mapreduce.v2.app.job.Job; 
    and by specifying in yarn-site that the map-reduce framework should be Tez.
  • DAG-based execution is accessed via the new Tez DAG API: org.apache.tez.dag.api.*, org.apache.tez.engine.api.*.


Tez provides pre-made primitives for use with the DAG API (org.apache.tez.engine.common.*)

  • Vertex Input
  • Vertex Output
  • Sorting
  • Shuffling
  • Merging
  • Data transfer

 

Tez-YARN architecture

In the above figure Tez is represented by the red components: client-side API, an AppMaster, and multiple containers that execute child processes under the control of the AppMaster.

image

Three separate software stacks are involved in the execution of a Tez job, each using components from the clientapplication, Tez, and YARN:

image

 

DAG topologies and scenarios

The following terminology is used:

Job Vertex: A “stage” in the job plan. 逻辑顶点, 可以理解成stage 
Job Edge: The logical connections between Job Vertices. 逻辑边, 关联 
Vertex: A materialized stage at runtime comprising a certain number of materialized tasks. 物理顶点, 由并行的tasks节点组成 
Edge: Represents actual data movement between tasks. 物理边, 代表实际数据流向 
Task: A process performing computation within a YARN container. Task, 一个执行节点 
Task cardinality: The number of materialized tasks in a Vertex. Task基数, Vertex的并发度 
Static plan: Planning decisions fixed before job submission. 
Dynamic plan: Planning decisions made at runtime in the AppMaster process.

 

Tez API

The Tez API comprises many services that support applications to run DAG-style jobs. An application that makes use of Tez will need to: 
1. Create a job plan (the DAG) comprising vertices, edges, and data source references 
2. Create task implementations that perform computations and interact with the DAG AppMaster 
3. Configure Yarn and Tez appropriately

DAG definition API

抽象DAG的定义接口

public class DAG{
    DAG();
    void addVertex(Vertex);
    void addEdge(Edge);
    void addConfiguration(String, String);
    void setName(String);
    void verify();
    DAGPlan createDaG();
}

public class Vertex {
    Vertex(String vertexName, String processorName, int parallelism);
    void setTaskResource();
    void setTaskLocationsHint(TaskLocationHint[]);
    void setJavaOpts(String);
    String getVertexName();
    String getProcessorName();
    int getParallelism();
    Resource getTaskResource();
    TaskLocationHint[] getTaskLocationsHint();
    String getJavaOpts();
}

public class Edge {
    Edge(Vertex inputVertex, Vertex outputVertex, EdgeProperty edgeProperty);
    String getInputVertex();
    String getOutputVertex();
    EdgeProperty getEdgeProperty();
    String getId();
}

Execution APIs

Task作为Tez的执行者, 遵循input, output, processor的模式

public interface Master
//a context object for task execution. currently only stub

public interface Input{
    void initialize(Configuration conf, Master master)
    boolean hasNext()
    Object getNextKey()
    Iterable<Object> getNextValues()
    float getProgress()
    void close()
}

public interface Output{
    void initialize(Configuration conf, Master master);
    void write(Object key, Object value);
    OutputContext getOutputContext();
    void close();
}

public interface Partitioner {
    int getPartition(Object key, Object value, int numPartitions);
}

public interface Processor {
    void initialize(Configuration conf, Master master)
    void process(Input[] in, Output[] out)
    void close()
}

public interface Task{
    void initialize(Configuration conf, Master master)
    Input[] getInputs();
    Processor getProcessor();
    Output[] getOutputs();
    void run()
    void close()
}

本文章摘自博客园,原文发布日期: 2013-10-19
目录
相关文章
|
SQL 分布式计算 资源调度
apache tez 编译安装与验证
本文介绍apache tez 编译安装与验证
apache tez 编译安装与验证
|
SQL 分布式计算 资源调度
在文件存储HDFS版上使用 Apache Tez
本文档主要介绍在挂载文件存储HDFS版的 Hadoop 集群上安装及使用 Tez。
674 0
|
分布式计算 Apache Hadoop
|
5月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
946 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
|
存储 Cloud Native 数据处理
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
本文整理自阿里云资深技术专家、Apache Flink PMC 成员梅源在 Flink Forward Asia 新加坡 2025上的分享,深入解析 Flink 状态管理系统的发展历程,从核心设计到 Flink 2.0 存算分离架构,并展望未来基于流批一体的通用增量计算方向。
488 0
从嵌入式状态管理到云原生架构:Apache Flink 的演进与下一代增量计算范式
|
7月前
|
SQL 人工智能 数据挖掘
Apache Flink:从实时数据分析到实时AI
Apache Flink 是实时数据处理领域的核心技术,历经十年发展,已从学术项目成长为实时计算的事实标准。它在现代数据架构中发挥着关键作用,支持实时数据分析、湖仓集成及实时 AI 应用。随着 Flink 2.0 的发布,其在流式湖仓、AI 驱动决策等方面展现出强大潜力,正推动企业迈向智能化、实时化的新阶段。
872 9
Apache Flink:从实时数据分析到实时AI
|
7月前
|
SQL 人工智能 API
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
Apache Flink 2.1.0 正式发布,标志着实时数据处理引擎向统一 Data + AI 平台迈进。新版本强化了实时 AI 能力,支持通过 Flink SQL 和 Table API 创建及调用 AI 模型,新增 Model DDL、ML_PREDICT 表值函数等功能,实现端到端的实时 AI 工作流。同时增强了 Flink SQL 的流处理能力,引入 Process Table Functions(PTFs)、Variant 数据类型,优化流式 Join 及状态管理,显著提升作业稳定性与资源利用率。
765 0
|
6月前
|
人工智能 运维 Java
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
本文基于Apache Flink PMC成员宋辛童在Community Over Code Asia 2025的演讲,深入解析Flink Agents项目的技术背景、架构设计与应用场景。该项目聚焦事件驱动型AI智能体,结合Flink的实时处理能力,推动AI在工业场景中的工程化落地,涵盖智能运维、直播分析等典型应用,展现其在AI发展第四层次——智能体AI中的重要意义。
2184 27
Flink Agents:基于Apache Flink的事件驱动AI智能体框架
|
存储 人工智能 大数据
The Past, Present and Future of Apache Flink
本文整理自阿里云开源大数据负责人王峰(莫问)在 Flink Forward Asia 2024 上海站主论坛开场的分享,今年正值 Flink 开源项目诞生的第 10 周年,借此时机,王峰回顾了 Flink 在过去 10 年的发展历程以及 Flink社区当前最新的技术成果,最后展望下一个十年 Flink 路向何方。
984 33
The Past, Present and Future of Apache Flink

推荐镜像

更多