58 集团大规模 Storm 任务平滑迁移至 Flink 的秘密

本文涉及的产品
实时计算 Flink 版,1000CU*H 3个月
简介: 本文主要讲述 58 实时计算平台如何优化 Flink-Storm 以及基于 Flink-Storm 实现真实场景下大规模 Storm 任务平滑迁移 Flink。

Flink-Storm 是 Flink 官方提供的用于 Flink 兼容 Storm 程序 beta 工具,并且在 Release 1.8 之后去掉相关代码。本文主要讲述 58 实时计算平台如何优化 Flink-Storm 以及基于 Flink-Storm 实现真实场景下大规模 Storm 任务平滑迁移 Flink。

背景

58 实时计算平台旨在为集团业务部门提供稳定高效实时计算服务,主要基于 Storm 和 Spark Streaming 构建,但在使用过程中也面临一些问题,主要包括 Storm 在吞吐量不足以及多集群带来运维问题,Spark Streaming 又无法满足低延迟的要求。Apache Flink 开源之后,其在架构设计、计算性能和稳定性上体现出的优势,使我们决定采用 Flink 作为新一代实时计算平台的计算引擎。同时基于 Flink 开发了一站式高性能实时计算平台 Wstream,支持 Flink jar,Stream Sql,Flink-Storm 等多样化任务构建方式。

在完善 Flink 平台建设的同时,我们也启动 Storm 任务迁移 Flink 计划,旨在提升实时计算平台整体效率,减少机器成本和运维成本。

Storm vs Flink

image

尽管 Flink 作为高性能计算引擎可以很好兼容 Storm,但在业务迁移过程中,我们仍然遇到了一些问题:

1 .用户对 Flink 的学习成本;

  1. 重新基于 Flink 开发耗费工作量;
  2. Stream-SQL 虽然可以满足快速开发减少学习成本和开发工作量但无法满足一些复杂场景。

因此我们决定采用 Flink 官方提供的 Flink-Storm 进行迁移,在保障迁移稳定性同时无需用户修改 Storm 代码逻辑。

Flink-Storm 原理

image

通过 Storm 原生 TopologyBuilder 构建好 Storm topology。
FlinkTopology.createTopology(builder) 将 StormTopology 转换为 Flink 对应的 Streaming Dataflow。
SpoutWrapper 用于将 spout 转换为 RichParallelSourceFunction,spout 的OutputFields转换成 source 的T ypeInformation。
BoltWrapper 用于将 bolt 转换成对应的 operator,其中 grouping 转换为对 spout 的 DataStream 的对应操作。
构建完 FlinkTopology 之后,就可以通过 StreamExecutionEnvironment 生成 StreamGraph 获取 JobGraph,之后将 JobGraph 提交到 Flink 运行时环境。

实践

Flink-Storm 作为官方提供 Flink 兼容 Storm 程序为我们实现无缝迁移提供了可行性,但是作为 beta 版本,在实际使用过程中存在很多无法满足现实场景的情况,主要包括版本,功能 bug,复杂逻辑兼容,无法支持 yarn 等,下面将主要分为平台层面和用户层面讲述我们的使用和改进。

image

平台层面

1. 版本

当前线上使用 Apache Flink 1.6 版本,Flink-Storm 模块基于 Storm 1.0 开发,我们平台运行 Storm 版本为 0.9.5 和 1.2 。

1.1 对于 Storm 1.2 运行任务,Storm 1.0 API 完全兼容 1.2 版本,因此只需切换 Flink-Storm 模块依赖的 storm-core 到 1.2.

image

1.2 对于 Storm 0.9.5 任务,由于 Storm 1.0 API 无法兼容 0.9.5,需要修改依赖 storm-core 为 0.9.5,同时修改 Flink-Storm 模块中所有与 Storm 相关的 API,主要是切换 package 路径。

image

1.3 重新构建 flink-storm 包 mvn clean package -Dmaven.test.skip=true -Dcheckstyle.skip=true

2.功能

2.1 传递语义保证

Storm 使用 ACK 机制来实现传递语义保证,我们没有将 Storm 的 ACK 机制移植到Flink-Storm。因此,某些依赖 ACK 机制的功能会受到限制。比如,Kafka spout 将消费状态存储在 ZK,状态的更新需要依赖 ACK 机制,tuple 树结束后,spout 才会触发状态更新,表示这条消息已经被完全处理,从而实现 at least once 的传递保证。Storm 也提供了at most once 的支持,spout 发送消息后,无需等待 tuple 树结束直接触发状态更新。我们使用了 Storm 的实现 at most once 的方式,在 Kafka spout 实现 at most once 的基础上,通过实现 Flink Checkpoint 的状态机制,实现了 Flink-storm 任务的 at least once。Storm 任务迁移到 Flink,传递保证不变。

image

2.2 tick tuple 机制

Storm 使用 tick tuple 机制实现定时功能,消息超时重发、Bolt 定时触发等功能都要依赖 tick tuple 机制。Storm 0.9.5 版本没有实现窗口功能,用户可以使用 tick tuple 机制简单实现窗口功能。我们同样为 Flink-Storm 增加了 tick tuple 机制的支持,使用方式也和 Storm 中使用方式一样,配置 topology.tick.tuple. freq.secs 参数,即开启了 tick tuple 功能。

image

2.3 多输入下 AllGrouping 支持

AllGrouping 分组方式对应于 Flink 是 Broadcast。如图,bolt-1 有两个输入,这种情况下,原 flink-storm 的实现,spout-2 到 bolt-1 的数据分区的表现形式和Rebalance(Flink 术语)一样,而不是 Broadcast。我们优化了这种场景,使其数据分组表现和 Storm 中是一样的。

image

3.Runtime

Flink-Storm 默认支持 local 和 standalong 模式任务提交,无法将任务提交到 yarn 集群,我们在建设 Flink 集群一开始就选择了 yarn 模式,便于集群资源管理和统一实时计算平台,因此需要自行实现支持 yarn 的 runtime 功能,这里主要涉及 yarn client 端设计。

YARN Client 实现机制

image

整个模块主要分为四个部分,其中 client 用于调用 Flink-Storm 程序转化接口,得到 Flink jobGraph。配置参数用于初始化 Flink 及 yarn 相关配置,构建运行时环境,命令行工具主要用于更加灵活的管理。yarnClient 主要实现 ApplicationClientProtocol 接口,完成与 ResourceManager 与 ApplicationMaster 的交互,实现 Flink job 提交和监控。

image

4.任务部署

为便于任务提交和集成到 Wstream 平台,提供类似 Flink 命令行提交方式:

image

用户层面

1.maven 依赖

平台将编译好的包上传到公司 maven 私服供用户下载对应版本 Flink-Storm 依赖包:

image

2.代码改动

用户需要将 Storm 提交任务的方式改成 Flink 提交,其他无需变动。

image

总结

通过对 Fink-Storm 的优化和使用,我们已经顺利完成多个 Storm 集群任务迁移和下线,在保障实时性及吞吐量的基础上可以节约计算资源 40% 以上,同时借助 yarn 统一管理实时计算平台无需维护多套 Storm 集群,整体提升了平台资源利用率,减轻平台运维工作量。

作者介绍:
万石康,来自 58 集团 TEG,后端高级工程师,专注于大数据实时计算架构设计。

相关实践学习
基于Hologres+Flink搭建GitHub实时数据大屏
通过使用Flink、Hologres构建实时数仓,并通过Hologres对接BI分析工具(以DataV为例),实现海量数据实时分析.
实时计算 Flink 实战课程
如何使用实时计算 Flink 搞定数据处理难题?实时计算 Flink 极客训练营产品、技术专家齐上阵,从开源 Flink功能介绍到实时计算 Flink 优势详解,现场实操,5天即可上手! 欢迎开通实时计算 Flink 版: https://cn.aliyun.com/product/bigdata/sc Flink Forward Asia 介绍: Flink Forward 是由 Apache 官方授权,Apache Flink Community China 支持的会议,通过参会不仅可以了解到 Flink 社区的最新动态和发展计划,还可以了解到国内外一线大厂围绕 Flink 生态的生产实践经验,是 Flink 开发者和使用者不可错过的盛会。 去年经过品牌升级后的 Flink Forward Asia 吸引了超过2000人线下参与,一举成为国内最大的 Apache 顶级项目会议。结合2020年的特殊情况,Flink Forward Asia 2020 将在12月26日以线上峰会的形式与大家见面。
目录
相关文章
|
5月前
|
资源调度 Kubernetes 流计算
Flink在B站的大规模云原生实践
本文基于哔哩哔哩资深开发工程师丁国涛在Flink Forward Asia 2024云原生专场的分享,围绕Flink On K8S的实践展开。内容涵盖五个部分:背景介绍、功能及稳定性优化、性能优化、运维优化和未来展望。文章详细分析了从YARN迁移到K8S的优势与挑战,包括资源池统一、环境一致性改进及隔离性提升,并针对镜像优化、Pod异常处理、启动速度优化等问题提出解决方案。此外,还探讨了多机房容灾、负载均衡及潮汐混部等未来发展方向,为Flink云原生化提供了全面的技术参考。
341 9
Flink在B站的大规模云原生实践
|
7月前
|
SQL 运维 Java
蚂蚁 Flink 实时计算编译任务 Koupleless 架构改造
本文介绍了对Flink实时计算编译任务的Koupleless架构改造。为解决进程模型带来的响应慢、资源消耗大等问题,团队将进程模型改为线程模型,并借助Koupleless的类加载隔离能力实现版本和包的隔离。通过动态装配Plugin及其Classpath,以及Biz运行时仅对依赖Plugin可见的设计,大幅优化了编译任务的性能。结果表明,新架构使编译耗时降低50%,吞吐量提升5倍以上。
蚂蚁 Flink 实时计算编译任务 Koupleless 架构改造
|
Java Shell Maven
Flink-11 Flink Java 3分钟上手 打包Flink 提交任务至服务器执行 JobSubmit Maven打包Ja配置 maven-shade-plugin
Flink-11 Flink Java 3分钟上手 打包Flink 提交任务至服务器执行 JobSubmit Maven打包Ja配置 maven-shade-plugin
678 4
|
资源调度 分布式计算 大数据
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
434 0
|
监控 Cloud Native 流计算
实时计算 Flink版产品使用问题之如何查看和管理任务
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
资源调度 Java Scala
实时计算 Flink版产品使用问题之如何实现ZooKeeper抖动导致任务失败时,能从最近的检查点重新启动任务
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
Kubernetes Java 数据库连接
实时计算 Flink版产品使用问题之部署到 Kubernetes 集群时,任务过一会儿自动被取消,该如何排查
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
资源调度 安全 数据处理
实时计算 Flink版产品使用问题之提交任务时如何设置TaskManager的数量
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
360深度实践:Flink 与 Storm 协议级对比
本文从数据传输和数据可靠性的角度出发,对比测试了 Storm 与 Flink 在流处理上的性能,并对测试结果进行分析,给出在使用 Flink 时提高性能的建议。
1370 0
|
3月前
|
存储 分布式计算 数据处理
「48小时极速反馈」阿里云实时计算Flink广招天下英雄
阿里云实时计算Flink团队,全球领先的流计算引擎缔造者,支撑双11万亿级数据处理,推动Apache Flink技术发展。现招募Flink执行引擎、存储引擎、数据通道、平台管控及产品经理人才,地点覆盖北京、杭州、上海。技术深度参与开源核心,打造企业级实时计算解决方案,助力全球企业实现毫秒洞察。
481 0
「48小时极速反馈」阿里云实时计算Flink广招天下英雄