SLA 99.99%以上!饿了么实时计算平台3年演进历程

本文涉及的产品
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
实时计算 Flink 版,5000CU*H 3个月
数据传输服务 DTS,数据同步 small 3个月
推荐场景:
数据库上云
简介:

一、背景

饿了么BDI-大数据平台研发团队目前共有20人左右,主要负责离线&实时 Infra 和平台工具开发,其中包括20+组件的开发和维护、2K+ Servers 运维及数据平台周边衍生工具研发&维护。离线 Infra 和平台工具这一块对外分享的比较多。

今天主要给大家讲讲饿了么在实时计算平台方面的一些演进经验,整个实时平台也是经历了从无到有→快速发展→平台化的阶段,每个阶段都面临了不同的问题。

二、整体规模和架构

首先介绍下目前饿了么实时平台的整体规模:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 4 Kafka 集群,单 Kafka 高峰100wmsg/s;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 2 ELK 集群用来做日志检索,全网索引量86w/s;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 4 Storm 集群,根据业务 SLA 进行物理拆分,全网高峰计算量1.6kw/s;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 2 Spark Streaming 集群和2个 Flink 集群,都是 On Yarn 模式,其中 Flink 在做一些线上业务尝试;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 20个以上业务方接入,共120+ Storm 任务(包括双活 & DataPipeline 业务)、26+ Spark Streaming 任务、10+ Streaming SQL 任务,涉及实时搜索推荐、实时风控、实时监控、实时营销等项目。

整体架构图如下:

40734e082df6b416330a9be54e7a8def77869f88

可以看到,其中包括了数据采集、传输、计算、落地还有服务。组件多且系统压力大,部分业务直接应用于关键路径,要求整体的 SLA 要在99.99%以上。

三、演进过程

整体也经历几个阶段:从无到有、快速发展、平台化

> > > >

1、从无到有


饿了么从15年5月份上线实时计算,这个阶段面临的问题:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106需求少 。实时业务在公司推广不够,只有一个 UBT Domain QoS 分析需求,用来计算网站错误率、HTTPCode 分布、页面加载速度等 QoS 数据;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106数据源单一 。数据源只有用户行为 Log,缺乏订单、运单等核心 DB 数据;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106容量有限 。集群规模不到20台,且和离线混部,要同时支持实时+离线需求,存在资源竞争;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106稳定性问题 。缺乏统一的使用标准姿势,各组件应用问题也比较多。比如每种应用需要什么类型的机器、怎么样最佳化配置……同时因为使用的开源组件版本较旧,存在一些稳定性 bug;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106数据延迟和数据不全 。因为在初始技术选项上存在问题,在数据采集端使用了自行开发的 Python 程序,同时使用了跨机房的传输,导致经常出现数据丢失和延迟问题。最严重时,实时的数据在高峰期要 Delay 2个小时以上,基本不可用。

这个阶段主要解决了环境、稳定性、数据延迟和数据丢失的问题,主要做了如下工作:

针对环境和标准化问题:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 根据业务特点确定新机型配置(区分计算密集型、内存密集型、IO 密集型、混合密集型等);
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 设定各组件部署规范&参数规范,包括环境变量、内核参数、应用参数等:比如对 JVM 参数的调整、对 ZK/Kafka 的配置优化;包括硬件的标准:比如旧的 Kafka 不支持 JBOD Markdown ,因此我们会对磁盘做 RAID,增强系统的可用性;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 实时和离线进行拆分,独立部署,避免资源的争用;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 对现有组件升级,修复稳定性 bug(比如 Storm 版本演进0.9.4->0.9.6到后面的1.0.1、1.0.3);
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 同时基于环境的标准化和自动化考虑,引入了 Puppet 做环境配置收敛保持,Ansible 做自动化部署,并做成一键管理工具,可以快速地维护。

针对稳定性问题:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 在数据采集侧,为了减少对 app端的流量消耗,同时增强整体传输的效率,在 app端引入 Merge+Gzip,在 SDK 把多条消息 Merge 成一条压缩后发送到 Nginx Server,并在 Nginx 端用 Lua 进行解压,以 AccessLog 的方式落地;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 在数据传输侧,重新调研数据传输方案,考虑到团队以 Java 为技术栈,以及外部案例,引入了 Flume 作为数据采集管道,以 Tail Log 的形式进行数据采集并 Sink 到 Kafka 集群,并基于 HDFS Sink 开发根据 EventTime 的 Partition 功能,同时 fix Backlog 和 Kafka Sink 的 bug;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 在数据落地侧,为了存储中间状态结果,引入 KV 存储。最初使用单机 Redis 存储数据,set 去重,遇到了严重的性能问题,所以后面开始逐步使用 Self Sharding->Redis+Tewmproxy 的方式,但是维护成本比较高。后面随着 RedisCluster 稳定版 Release 开始逐步迁移到 Cluster 模式,这个阶段公司在 NoSQL 的经验一直不足,所以都是团队内部不断地摸索前进。

这个阶段实时架构是这样的:

ed1d75265919c4145ea2f01efd024039a5a6486e

这个阶段整个平台研发只有4个人,既要负责离线、实时、平台工具的开发和维护,还要支撑业务的开发,资源比较紧张,实时方面投入捉襟见肘。

虽然解决了基本的稳定性 & 数据延迟和丢失的问题,但是整体链路 SLA 还是不高,同时还存在数据源单一、应用单一的问题。

> > > >

2、快速发展


16年公司业务大力发展,实时方面的需求越来越多。SLA 不高、数据源单一、应用单一的问题亟待解决。

由于业务需求,需开发实时 Dashboard 来实时关注业务情况,涉及流量、订单、运单等重要数据,项目需要涉及不同的数据源(Log & DB &业务数据),同时要求 SLA 99.99%以上。

为了提高整体的 SLA,同时覆盖 DB 侧的数据源,针对整个链路做了如下调整优化:

数据源方面:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 优化 UBT(Nginx AccessLog)传输效率,调整 Flume 和 Kafka 的 Batch 大小、增加 Flume Timeout send 功能(默认 Flume1.6.0只有 Batch 的控制,没有 Timeout 的控制,会导致低峰时消息 Delay 变大)。考虑到 Batch Size 越大吞吐量越高,相应延迟也越大,因此需要针对吞吐量 & 实时性要求做 Trade Off。通过线上数据的分析,最终把 Batch Size 调整到10,Timeout 调整到100ms,最终 UBT 数据链路(从采集 Server 到计算落地)延迟降低99.9%<1s;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 同时为了防止异常流量导致日志收集端雪崩,引入了 Nginx 限流限速模块;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 为了满足 Binlog 数据采集的需求引入 OR 做解析工具,为防止 OR 异常退出导致数据丢失问题,开发基于 ZK 存储 Offset 功能,在异常 Crash 重启后继续上次的 Offset 消费即可。

计算方面:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 前面提到用户 Log 是合并发送,在 Kafka 中的表现是多条 Merge 成一条,应用如果需要使用的话,需要按照一定的规则 Split。同时每个业务关注的 Type 不一样,不同的业务需要全量消费所有 Log,同时需要自行进行 Split,计算量大,维护成本比较高。为了解决这个问题引入了双层 Kafka 结构,在第一层进行统一的 Split 和 Filter,过滤异常流量,同时分 Type 写入二层 Topic,这样每个消费方只需消费对应的数据部分即可,整体流量相关业务计算量对比之前降低了一半以上;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 涉及 UV 计算的场景,初始使用 Redis Set 去重,但是内存消耗过大。由于 UV 指标允许1%以内误差,在精度和时空效率上做 Trade Off,转而使用 Redis 的 HLL 来估算。随着业务量的增大,Redis 的 QPS 成为瓶颈,同时 Redis 无法跨实例进行 HLL 的 Merge,又演化为基于内存的 HLL 估算和 Merge,同时使用 Redis 直接存储对象,节省百倍内存的同时,支持多维度的 Merge 操作;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 同时考虑到多个系统共用 ZK,ZK 可能存在比较大的压力,因此通过分析 ZK 的 Transcation Log 来确定调用分布。比如通过分析发现 Storm Worker 的 Heartbeat 会频繁访问 ZK,因此通过增加 Heartbeat Commit 时间减少 ZK 的压力;

516da44af08d4b7ad8ff0551f9d5d5d2ca225106为了减少重复的代码开发,对基础组件进行了封装:包括数据消费、去重、累加、数据写入等算子,最终减少了部分任务50%的代码量,提高了整体的开发效率,让用户关注业务逻辑即可。

013321f8e861a58e14b83df5481ce5944e6cf7c9

封装组件列表

运维管理方面:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 为了解整体的容量情况,开发实时容量看板,通过实时获取 Zabbix Item LastValue 来监控 Storm & RedisCluster 实时压力情况;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 为方便用户可以快速查看任务 Log 引入 ELK,同时在 Kafka2es 这一层引入 Hangout 替代 Flume (可支持3x以上性能提升),最终实现了 Storm Top Log->Logstash->Kafka->Hangout->ES->Kanbana 的整个 Log 链路。

整体 SLA 增强方面:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 数据采集侧和计算侧均引入限速 & 反压功能,防止流量暴涨导致的雪崩效应;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 从数据采集到数据最终落地使用双链路的方式,并采用多机房方式:比如数据采集端分布在异地两机房,使用本地计算+最终 Merge 或者数据双向传输+全量计算的方式;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 配合 Kafka Binlog 数据的重放和 Nginx 模拟访问,对全链路进行模拟压测,配合实时监控 & 业务表现来关注各组件的性能临界点;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 基于3的数据进行容量规划,同时做好资源的隔离;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 完善各层面的监控和报警策略,包括模拟用户的访问来验证链路的情况,同时为了避免口径不一致导致的数据问题,开发离线&实时数据质量对比 Report,监控数据质量问题;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 在业务端&后端增加降级策略,同时后端服务 Auto Failover;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 完善各紧急预案 SOP,并针对性演练:比如通过切断 Active 的数据落地层来确定应用是否可以 Auto Failover;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 数据层利用缓存,比如把一些 Storm 中间计算态数据写入 Redis 中;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 同时为了防止应用 Crash 导致数据断层问题,开发了补数功能,在异常恢复后可以通过离线的数据补齐历史数据。

通过上述的一系列调整,最终抗住业务几倍的流量增长,保证了整体服务的稳定性。

业务监控 Dashboard 部分示例:

af44e2646e80cf8dea0e57505cc2645c64d8ef5e

这个阶段实时平台的主要用户还是大数据自身,应用架构如下:

6baa93f13edf55807125fb02461ba8fa3de1a799

这个阶段虽然解决了数据源单一、整体 SLA 不高的问题,但是也带来了新的问题:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 Storm 任务越来越多、Kafka Topic 越来越多、Topic 的 Producer 端和 Consumer 各是哪些、数据量如何,同时任务维护成本也越来越高,亟需一个平台化的工具;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 用户的需求多样,一种引擎已经无法满足业务需求,需要多种引擎支持;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 由于饿了么存在多语言开发场景(Go、Python、Java、Scala 等),Storm 任务开发学习成本比较高,用户希望通过一个 SQL 即可支持部分简单场景;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 业务 Log 需要通过 Nginx+Flume 方式收集,需要协调 OPS 部署 Flume,而 OPS 的同学比较排斥 Flume,亟需提供一个方便开发数据写入的标准 SDK 接入姿势;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 之前业务数据落地仓库需要通过 Kafka->Flume->HDFS 方式,随着接入业务方变多,Flume 的维护成本越来越高,同时发生了多起 2HDFS 的 bug 导致数据重复的问题,亟需提供一个方便维护、支持多种数据 Sink 方式、稳定的数据流通解决方案。
> > > >

3、平台化


17年初各产研逐步接入实时计算,上述问题也逐渐暴露出来,平台层面亟需一个统一的方案来解决用户的痛点。因此在年初,我们确定了“以 ERDP 实时平台为核心,打通数据采集、数据传输、数据计算、数据落地 DataPipeline 整体流程,为用户提供一个一站式的实时平台”的方向。

在此目标之上,我们做了如下的调整:

开发资源聚焦:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 因为负责实时平台相关的小伙伴只有3-5人,我们开始逐步推动部分组件接入公司统一服务(比如监控 & 报警),并将部分任务移交到应用团队 team,只保留个别实时业务和平台相关部分开发;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 考虑到 OR 每接入一个 DB 都需要启动 Instance,维护成本比较高,同时公司开始推动统一的 Binlog 解析工具 DRC 来做多机房间 DB 数据同步,因此我们也逐步使用 DRC 来替换 OR。

解决数据采集痛点:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 通过开发统一的多语言数据接入 SDK 并接入配置中心,标准化数据接入的格式,方便用户的业务数据可以快速接入,同时为了提高可用性,在 SDK 中集成了降级 & 限速功能。

解决数据传输接入痛点:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 参考 Flume Source->Channel->Sink 的思想,开发了基于 Storm 的 Data Pipeline 功能的组件 EDSink,可以支持多种数据写入方式,包括 2KAFKA、2ES、2HDFS、2DB。同时高度封装,抽象出部分配置,用户只需要通过填写一部分参数就可以实现数据的落地,大大加快了数据接入的效率,同时在数据落地层面引入了熔断功能;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 在数据通过 EDSink 写入 HDFS 方面,打通了离线平台的调度系统和元数据管理使用,集成了建表和数据清洗功能,实现了一键化的数据落地。目前业务 Log 通过 EDSink 接入数据仓库已经从之前的2-3天降低到2小时以内;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 为支持更细粒度的任务调度,在 EDSink 中集成基于 EventTime 分区功能,可以支持分钟粒度分区,结合 Spark 来支持半小时 ETL 链路的开发,小时整体链路从之前的40min缩短到20min左右即可完成;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 同时和 Binlog 解析工具联动打通,支持用户自助申请落地 DB 数据,目前基于此方案,团队在进行 DB 数据去 Sqoop 化,预计可大大节省线上 DB Slave 服务器成本。

提供更多的计算方式:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 引入 Spark Streaming 并集成到 ERDP 平台,封装基本的 Spark Streaming 算子,用户可以通过平台对 Spark Streaming 任务进行管理;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 考虑到需要支持部分 SQL 的需求,在 Spark Streaming、Flink、Storm CQL 等引擎中做了对比,从团队的技术栈、引擎的成熟度、稳定性等层面综合考虑最终选择了 Spark Streaming。并基于 Spark Streaming 的 SQL 功能,为用户封装基本算子,同时支持上传 Jar 包提供 UDF 功能及 Scala 脚本支持,支持 Structured Streaming 以支持带状态的增量计算,实现用户写 SQL 即可满足实时开发的需求(目前可支持90%的业务场景)。

自动化&自助化便于任务和资源管理:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 之前用户的 Storm 任务配置更改都需要重新打包,用户管理成本比较高,因此引入 Storm Flux 功能,封装基本组件并集成到实时平台。用户可以0代码生成数据 Sink,同时可以快速进行任务的开发和管理,自动生成 YML 文件降低任务的维护成本;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 通过打通各个资源申请流程,支持 Kafka Topic 等资源的自助化申请和自动化创建,基于 Topic 数据完善元数据的管理,为资源的核算和实时元数据血缘做数据基础;

516da44af08d4b7ad8ff0551f9d5d5d2ca225106为了方便任务的监控,将 Storm,SparkStreaming,Kafka 层面监控统一入库 InfluxDB,并自动化模板生成功能,用户无需手动添加监控和报警,任务上线后 Metric & Dashboard 自动上报和创建,通过自动采集 API 的数据写入 InfluxDB,同时做了一个标准的 Template 用来自动生成 Grafana 的监控模板。

6b1d372cb76b323c4e918387cdd745dd0ed765c0

Kafka监控示例

通过上述一系列的调整,最终完善了整个平台,解决了用户开发成本高、接入成本高、管理成本高等痛点,最终的架构图就是文章开始的状况。

> > > >

4、后续计划


虽然经过了一些演进,现有的平台仍然存在一些问题,比如:

516da44af08d4b7ad8ff0551f9d5d5d2ca225106 SQL 方式覆盖场景有限;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 用户在引擎中选择困难,没有一个引擎可以解决大部分需求;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 Kafka0.8.2 版本功能有限,不支持 Excatly Once,不支持 JBOD Markdown 等;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 实时和离线分离,数据重复建设,因为实现方式不同,实时和离线很难做到数据口径完全一致;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 实时业务场景在公司内覆盖不够;
516da44af08d4b7ad8ff0551f9d5d5d2ca225106 ……

因此针对这些痛点我们也在做如下尝试:



原文发布时间为:2018-04-09

本文作者:倪增光

本文来自云栖社区合作伙伴“中生代技术”,了解相关信息可以关注“中生代技术”微信公众号

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
|
6月前
|
SQL 消息中间件 Kafka
流数据湖平台Apache Paimon(二)集成 Flink 引擎
流数据湖平台Apache Paimon(二)集成 Flink 引擎
902 0
|
存储 SQL 分布式计算
阿里云全托管flink-vvp平台hudi connector实践(基于emr集群oss-hdfs存储)
阿里云全托管flink-vvp平台hudi sink connector实践,本文数据湖hudi基于阿里云E-MapReduce产品,以云对象存储oss-hdfs作为存储
|
3月前
|
存储 SQL 安全
联通实时计算平台问题之如何体现集群治理的效果
联通实时计算平台问题之如何体现集群治理的效果
|
3月前
|
消息中间件 分布式计算 Kafka
联通实时计算平台问题之实时计算平台对于用户订阅和数据下发是如何支持的
联通实时计算平台问题之实时计算平台对于用户订阅和数据下发是如何支持的
|
3月前
|
消息中间件 监控 Java
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
|
3月前
|
消息中间件 监控 Kafka
联通实时计算平台问题之Flink状态后端数据量较大时,问题排查要如何进行
联通实时计算平台问题之Flink状态后端数据量较大时,问题排查要如何进行
|
3月前
|
消息中间件 存储 算法
联通实时计算平台问题之亿级标签关联实现且不依赖外部系统要如何操作
联通实时计算平台问题之亿级标签关联实现且不依赖外部系统要如何操作
|
3月前
|
消息中间件 监控 Kafka
联通实时计算平台问题之实时计算平台的数据处理流程是什么样的
联通实时计算平台问题之实时计算平台的数据处理流程是什么样的
|
3月前
|
搜索推荐 OLAP 流计算
OneSQL OLAP实践问题之基于 Flink 打造流批一体的数据计算平台如何解决
OneSQL OLAP实践问题之基于 Flink 打造流批一体的数据计算平台如何解决
55 1
|
3月前
|
监控 Java Serverless
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作