跑批为什么这么难

本文涉及的产品
云数据库 Tair(兼容Redis),内存型 2GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
简介: 业务系统产生的明细数据需经加工处理以支持企业经营,此过程称作“跑批”,常在夜间进行以免影响生产系统。跑批任务涉及大量数据及复杂计算,导致耗时较长。开源计算引擎SPL可直接基于文件系统计算,提供更优算法与存储机制,显著提升跑批效率。例如,L银行贷款协议跑批任务从2小时缩短至10分钟,性能提高12倍;P保险公司车险业务的历史保单关联任务从近2小时缩短至17分钟,速度提升近7倍;T银行贷款跑批任务提速204倍。

业务系统产生的明细数据通常要经过加工处理,按照一定逻辑计算成需要的结果,用以支持企业的经营活动。这类数据加工任务一般会有很多个,需要批量完成计算,在银行和保险行业常常被称为跑批,其它像石油、电力等行业也经常会有跑批的需求。

大部分业务统计都会要求以某日作为截止点,而且为了不影响生产系统的运行,跑批任务一般会在夜间进行,这时候才能将生产系统当天产生的新明细数据导出来,送到专门的数据库或数据仓库完成跑批计算。第二天早上,跑批结果就可以提供给业务人员使用了。

和在线查询不同,跑批计算是定时自动执行的离线任务,不会出现多人同时访问一个任务的情况,所以没有并发问题,也不必实时返回结果。但是,跑批必须在规定的窗口时间内完成。比如某银行的跑批窗口时间是晚上 8:00 到第二天早上 7:00,如果到了早上 7:00 跑批任务还没有完成,就会造成业务人员无法正常工作的严重后果。

跑批任务涉及的数据量非常大,很可能用到所有的历史数据,而且计算逻辑复杂、步骤众多,所以跑批时间经常是以小时计的,一个任务两三小时是家常便饭,跑到十个小时也不足为奇。随着业务的发展,数据量还在不断增加。跑批数据库的负担快速增长,就会发生整晚都跑不完的情况,严重影响用户的业务,这是无法接受的。

问题分析
要解决跑批时间过长的问题,必须仔细分析现有的系统架构中的问题。

跑批系统比较典型的架构大致如下图:

image.png

从图上看,数据要从生产数据库取出,存入跑批数据库。跑批数据库通常是关系型的,编写存储过程代码完成跑批计算。跑批的结果一般不会直接使用,而是再从跑批数据库中导出,采用接口文件的方式提供给其他系统,或者再导入其他系统数据库。这是比较典型的架构,图中的生产数据库也可能是某个中央数据仓库或者 Hadoop 等。一般情况下,生产库和跑批库不会是同一种数据库,它们之间往往通过文件的方式传递数据,这样也比较有利于降低耦合度。跑批计算完成后,结果要给多个应用系统使用,一般也都是以文件方式传递。

跑批很慢的第一个原因,是用来完成跑批任务的关系数据库入库、出库太慢。由于关系数据库的存储和计算能力具有封闭性,数据的进出要做过多的约束检查和安全处理,当数据量较大时,写入读出的效率非常低,耗时会非常长。所以,跑批数据库导入文件数据的过程,以及跑批计算结果再导出文件的过程都会很慢。

跑批很慢的第二个原因,是存储过程性能差。由于 SQL 的语法体系过于陈旧,存在诸多限制,很多高效的算法无法实施,所以存储过程中的 SQL 语句计算性能很不理想。而且,业务逻辑比较复杂的时候很难用一个 SQL 实现,经常要分成多个步骤,用十几甚至几十个 SQL 语句才能完成。每个 SQL 的中间结果,都要存入临时表给后续步骤的 SQL 使用。临时表数据量较大时就必须落地,会造成大量的数据写出。而数据库的写出要比读入性能差很多,会严重拖慢整个存储过程。

对于更复杂的计算,甚至很难用 SQL 语句直接实现,需要用数据库游标遍历取出数据,循环计算。但数据库游标遍历计算性能又要比 SQL 语句差很多,一般也都不直接支持多线程并行计算,很难利用多 CPU 核的计算能力,会让计算性能更加糟糕。

那么,是否可以考虑用分布式数据库来代替传统关系数据库,通过增加节点数量的办法,来提高跑批任务的速度呢?

答案仍然是不可行。主要原因是跑批计算的逻辑相当复杂,即使是用传统数据库的存储过程,也常常要写几千甚至上万行代码,而分布式数据库的存储过程计算能力还比较弱,很难实现这么复杂的跑批计算。

而且,当复杂计算任务不得不分成多个步骤时,分布式数据库也面临中间结果落地的问题。由于数据可能在不同的节点上,所以前序步骤将中间结果落地,后续步骤再读取的时候,都会造成大量跨网络的读写操作,性能很不可控。

这时,也不能采用分布式数据库依靠数据冗余来提升查询速度的办法。这是因为,查询之前可以预先准备好多份冗余数据,但是,跑批的中间结果是临时生成的,如果冗余的话就要临时生成多份,整体的性能只会变得更慢。

所以,现实的跑批业务通常仍然是使用大型单体数据库进行,计算强度太大时会采用类似 ExaData 这样的一体机(ExaData 是多数据库,但被 Oracle 专门优化过,可以看成是个超大型单体数据库)。虽然很慢,但是暂时找不到更好的选择,只有这类大型数据库有足够的计算能力,所以只能用它来完成跑批任务了。

SPL 用于跑批
开源的专业计算引擎 SPL 提供了不依赖数据库的计算能力,直接利用文件系统计算,可以解决关系数据库出库入库太慢的问题。而且 SPL 实现了更优算法,性能远远超过存储过程,能显著提高单机计算效率,非常适合跑批计算。

利用 SPL 实现的跑批系统新架构是下面这样的:

11d9965be245083ef084c1dad07f7c56_1659490243679100.png

在新架构中,SPL 解决了造成跑批慢的两大瓶颈问题。

首先来看数据的入库、出库问题。SPL 可以直接基于生产库导出的文件计算,不必再将数据导入到关系数据库中。完成跑批计算后,SPL 还能将最终结果直接存储成文本文件等通用格式,传递给其他应用系统,避免了原有跑批数据库的出库操作。这样一来,SPL 就省去了关系数据库缓慢的入库、出库过程。

下面再来看计算的过程。SPL 提供了更优的算法(有许多是业界首创),计算性能远远超过存储过程和 SQL 语句。这些高性能算法包括:

image.png

这些高性能算法可以应用于跑批任务中的常见 JOIN 计算、遍历、分组汇总等,能有效提升计算速度。例如,跑批任务常常要遍历整个历史表。有些情况下,对一个历史表还要遍历好多次,来完成多种业务逻辑的计算。历史表数据量一般都很大,每次遍历都要消耗很多的时间。此时我们可以应用 SPL 的遍历复用机制,仅对大表遍历一次,就可以同时完成多种计算,可以节省大量时间。

SPL 的多路游标能做到数据的并行读取和计算,即使是很复杂的跑批逻辑,也可以利用多 CPU 核实现多线程并行运算。而数据库游标是很难并行的,这样一来,SPL 的计算速度常常可以达到存储过程的数倍。

SPL 的延迟游标机制,可以在一个游标上定义多个计算步骤,之后让数据流按顺序依次完成这些步骤,实现链式计算,能够有效减少中间结果落地的次数。在数据必须落地的情况下,SPL 也可以将中间结果存成内置的高性能数据格式,供下一个步骤使用。SPL 高性能存储基于文件,采用有序压缩存储、自由列式存储、倍增分段、自有压缩编码等技术,减少了硬盘占用,读写速度要远远好于数据库。

应用效果
SPL 在技术架构上打破了关系型跑批数据库存在的两大瓶颈,在实际应用中也取得了非常好的效果。

L 银行跑批任务采用传统架构,以关系数据库作为跑批数据库,用存储过程编程实现跑批逻辑。其中,贷款协议存储过程需要执行 2 个小时,而且是很多其他跑批任务的前序任务,耗时这么久,对整个跑批任务造成了严重影响。

采用 SPL 后,使用高性能列存、文件游标、多线程并行、小结果内存分组、游标复用等高性能算法和存储机制,将原来 2 个小时的计算时间缩短为 10 分钟,性能提高 12 倍。

而且,SPL 代码更简洁。原存储过程 3300 多行,改为 SPL 后,仅有 500 格语句,代码量减少了 6 倍多,大大提高了开发效率。

更详细的介绍参见乾学院:我们怎样把 L 银行贷款协议跑批速度提高 10+ 倍。

P 保险公司的车险业务中,需要用往年历史保单来关联新的保单,在跑批中称为历史保单关联任务。原来也采用关系数据库完成跑批,存储过程计算 10 天的新增保单关联历史保单,运行时间 47 分钟;30 天则需要 112 分钟,接近 2 小时;如果日期跨度更大,运行时间就会长的无法忍受,基本就变成不可能完成的任务了。

采用 SPL 后,应用了高性能文件存储、文件游标、有序归并分段取出、内存关联和遍历复用等技术,计算 10 天新增保单仅需 13 分钟;30 天新增保单只需要 17 分钟,速度提高了近 7 倍。而且,新算法执行的时间随着保单天数的增长并不是很大,并没有像存储过程那样成正比的增长。

从代码总量来看,原来存储过程有 2000 行代码,去掉注释后还有 1800 多行,而 SPL 的全部代码只有不到 500 格,不到原来的 1/3。

详情参见乾学院:我们怎样把 P 保险公司 2 小时的跑批优化成 17 分钟。

T 银行通过互联网渠道发放贷款的明细数据,需要每天执行跑批任务,统计汇总指定日期之前的所有历史数据。跑批任务采用关系数据库的 SQL 语句实现,运行总时间 7.8 小时,占用了过多的跑批时间,甚至影响了其他的跑批任务,必须优化。

采用 SPL 后,应用了高性能文件、文件游标、有序分组、有序关联、延迟游标、二分法等技术,原来需要 7.8 小时的跑批任务,单线程仅需 180 秒,2 线程仅需 137 秒,速度提高了 204 倍。

详情参见乾学院:我们怎样把 T 银行贷款跑批任务提速 150+ 倍。

相关实践学习
体验RDS通用云盘核心能力
本次实验任务是创建一个云数据库RDS MySQL(通用云盘),并通过云服务器ECS对RDS MySQL实例进行压测,体验IO加速和IO突发带来的性能提升;并通过DMS执行DDL,将数据归档到OSS,再结合云盘缩容,体验数据归档带来的成本优势。
相关文章
|
6月前
|
Oracle Java 关系型数据库
一次惨痛的面试:“网易提前批,我被虚拟线程问倒了”
【5月更文挑战第13天】一次惨痛的面试:“网易提前批,我被虚拟线程问倒了”
100 4
|
25天前
|
机器学习/深度学习 算法 数据挖掘
机器学习第五次作业
机器学习第五次作业包含三个题目。第一题实现高斯贝叶斯分类和高斯朴素贝叶斯分类,分别用于判断瓜的好坏。第二题使用EM算法对数据进行聚类,输出两个类别的均值、方差和先验概率。第三题内容未完整展示。
43 0
机器学习第五次作业
|
3月前
|
机器学习/深度学习 运维 算法
【KDD2024】面向集群整体作业运行变慢的异常检测
阿里云计算平台大数据基础工程技术团队主导,与浙江大学合作的论文《Cluster-Wide Task Slowdown Detection in Cloud System》被数据挖掘领域顶会ACM SIGKDD2024接收。论文从新的视角分析云计算平台集群健康状态,实现了基于神经网络的集群作业整体变慢异常定向检测,与SOTA异常检测算法相比平均提升F1 score 5.3%。
|
3月前
|
DataWorks 算法 调度
B端算法实践问题之配置脚本以支持blink批处理作业的调度如何解决
B端算法实践问题之配置脚本以支持blink批处理作业的调度如何解决
37 1
|
SQL 关系型数据库 MySQL
PolarDB-X 针对跑批场景的思考和实践
金融行业和运营商系统,业务除了在线联机查询外,同时有离线跑批处理,跑批场景比较注重吞吐量,同时基于数据库场景有一定的使用惯性,比如直连MySQL分库分表的存储节点做本地化跑批、以及基于Oracle/DB2等数据库做ETL的数据清洗跑批等。
PolarDB-X 针对跑批场景的思考和实践
|
5月前
|
SQL 缓存 Oracle
实时计算 Flink版产品使用问题之如何实现重启后直接跑最新的任务而不是根据checkpoint跑历史数据
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
机器学习/深度学习 PyTorch 算法框架/工具
跑通GaitSet(跑不通你来揍我)
跑通GaitSet(跑不通你来揍我)
跑通GaitSet(跑不通你来揍我)
|
运维 Java 数据库
JVM 调优一个月,系统跑得比兔子还快!
JVM 调优一个月,系统跑得比兔子还快!
176 0
JVM 调优一个月,系统跑得比兔子还快!
一个多道批处理系统中仅有 P1 和 P2 两个作业
一个多道批处理系统中仅有 P1 和 P2 两个作业
1660 0
一个多道批处理系统中仅有 P1 和 P2 两个作业
|
算法 测试技术 C++
【网易算法提前批】平分物品
现在有n个物品,每一个物品都有一个价值,现在想将这些物品分给两个人,要求这两个人每一个人分到的物品的价值总和相同(个数可以不同,总价值相同即可),剩下的物品就需要扔掉,现在想知道最少需要扔多少价值的物品才能满足要求分给两个人。
253 0