调度、模型、同步与任务——阿里云大数据数仓建设性能优化方案

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
EMR Serverless StarRocks,5000CU*H 48000GB*H
简介: 对于阿里云大数据数仓建设性能优化而言,主要可以从调度优化、模型优化、同步优化以及任务优化这四个方面着手。其实,对于性能优化而言,最终还是会归结到“资源”之上,所以资源是否足够,分配是否合理也是我们在进行性能优化时必须考虑的关键所在。
摘要:对于阿里云大数据数仓建设性能优化而言,主要可以从调度优化、模型优化、同步优化以及任务优化这四个方面着手。其实,对于性能优化而言,最终还是会归结到“资源”之上,所以资源是否足够,分配是否合理也是我们在进行性能优化时必须考虑的关键所在。

以下内容根据演讲视频以及PPT整理而成。


本次演讲视频分享,请戳这里!
本次演讲PPT下载,请戳这里!
关于MaxCompute更多精彩文章,请移步云栖社区MaxCompute公众号!


本文将主要围绕以下四个方面进行介绍:调度优化、模型优化、同步优化以及任务优化。对于调度优化而言,将分享任务调度如何进行优化,以及如何看到调度的瓶颈点,以及在初步进行建设和使用数据仓库的任务之后,对于任务如何进行调整来满足业务的时间要求。对于模型优化而言,主要包括一些优化相关的想法、建议以及技术的优化点。对于数据同步优化而言,也是大家在建设数据仓库的过程中经常遇到的问题,也就是将数据从其他数据库同步过来或者向其他数据库进行数据同步的时候,经常会遇到一些像某些任务运行过慢或者影响其他任务的情况。对于任务优化而言,主要指的是计算任务,也可以理解为MaxCompute的SQL任务,这部分将与大家分享如何去优化这部分的任务。

一、调度优化
在数据仓库建设的过程中,大家都会需要跑一些任务,那么这些任务如何进行配置才会是最优的呢?如果出现了瓶颈点或者业务第二天所需要的数据并没有给到,那么很大一部分的情况需要从调度方面来考虑,是不是有些任务的时间点设置的不合理?或者是不是有些任务的优先级设置的不合理?这些可能是在调度层面,大家需要优先考虑的一个点。

调度优化方式
调度优化的主要方式如下图所示,按照道理前三点应该在设计初期提前想到或者提前规划好的。而目前大部分客户还是用了一段时间的数据仓库的时候,才发现存在一些问题,当第二天需要出报表的时候才想到去优化这些点。

96a08be19d92b2809500348cc79b458aae49d70e

第一点就是对于大任务而言,需要将其预定处理的时间提前,这里的大任务也就是耗时比较长的任务,如果任务已经在跑了,那么很好评估,在DataWorks里面可以看到哪些任务跑得慢。此外还有一个评估方法就是在第一次建立数仓的时候,表的数据量很大那么也肯定是大任务。对于这些大任务而言,需要将其定时的时间提前,也就是将其优先级提前。第二点就是将关键节点的定时时间提前,这里所谓的关键节点并不是说其数据量大,而是业务很重要的任务。第三点就是需要做到任务的隔离,这里主要指的是在使用DataWorks的时候会用到一些调度资源,不管是运行SQL也好还是运行同步任务也好,这些任务都需要跑在DataWorks的调度资源里面,那么如果将这些任务都放在一个项目就会出现问题,比如某个同步任务设置了10个并发,这样就占据了10多个调度资源,这样就可能将资源全部占满了,这样就会导致其他任务需要等待,这里不是指的MaxCompute资源不够,而是DataWorks的调度资源不够了。因此,一方面需要将开发和生产隔离开,避免因为开发临时启动了测试任务导致生产环境受到影响,因此要尽量将DataWorks里面的开发项目和生产项目分离开。此外,如果生产项目也很大,可能就需要按照数仓的分层或者不同业务拆分成不同的项目,这也是避免资源出现抢占,避免影响其他业务的一种方式。当然,这样的做法有利也有弊,因为这样做会使得复杂度增加,对于企业而言,后续的运维成本也会高一些,因此这需要看大家应该如何评估,如果数据量达到了一定的规模其实可以分拆出来的,但是如果数据量不是很大,那么就可以先不考虑分拆。第四点就是减少任务层级的依赖,大家在进行调度的时候,都会在DataWorks里面看到依赖的上一层或者下游依赖哪一些任务,而任务互相依赖的层级应该是越少越好的,但是按照数仓分层,依赖至少需要三层,这三层依赖是肯定存在的,除此之外还会有一些中间表,这样就会有四层或者五层,但是尽量不要出现10层以上甚至20层的依赖,这样复杂的任务依赖会使得后期去排查任务的依赖成本升高。如果在数仓建设的初期或者建设的过程中发现了一些问题就可以从以上四个点出发进行考虑。

二、模型优化
对于模型优化而言,必须要按照什么方式进行设计以及模型必须是什么样子的,其实没有一个定性的结论。这里也只是给出一些建议和想法。

f498d158f8cd2cb7d9ee347c816f473feec41efe

对于数仓的建模而言,其实可以分为3NF建模和维度建模等,而推荐使用维度建模方式,可以按照星型模型或者雪花型架构的方式去建模。3NF建模方式或者实体建模方式的应用型会差一点,在很多时候其性能也会差一点,但是3NF在很多时候都会避免数据的冗余,其扩展性会好一些。而维度建模会有一定的数据冗余,并且冗余程度会很高,但是对于上层使用者而言,其易用性要好很多,并且其查询的性能也会好很多,虽然可扩展性会稍微差一些,但是仍然处于可接受的范围之内。之所以在MaxCompute这边推荐大家使用维度建模,是因为其特点之一就是会存在数据冗余,但是数据冗余对于MaxCompute这种离线数据仓库来说,存储成本并不是很高,因为其都属于SATA盘的存储,这样的存储成本是很低的,而传统的数据仓库比如使用Oracle等其他的关系型数据库构建的数据仓库,大家往往会选择3NF的建模方式,这是因为其数据冗余存储成本会很高,磁盘很贵。

总之,在MaxCompute上推荐大家使用维度建模,使用星型建模或者雪花型建模的方式,这无论对于后续的运维还是后续对于数据的使用而言,都是比较便利的,并且性能也会好一些。星型模型其实就是中间一个事实表,周边围绕着一堆维度表,其结构会简单一些,使用比较方便,性能也比较好;对于雪花模型而言,维度表可能还会继续关联其他的维度表,这种方式就是雪花模型,它会略微比星型模型复杂一些。其实星型模型也可以理解为较为简单的雪花模型。这里推荐大家使用星型模型,当然如果业务非常复杂,必须要使用雪花型也可以使用。这是因为星型模型虽然有数据冗余,但是其结构比较简单,容易理解,而且使用起来只需要A传给B就可以了,不需要再关联一个C。

除了上述两个较大的关键点之外,还有一些值得注意的小点,比如中间表的利用,在这部分主要是将数仓分为三层,第一层做缓冲,第二层做整合,第三层做应用。但是并不是严格地只能分为三层,中间还是会有一些中间表的,如果能够利用好中间表则会增强数仓的易用性以及整体的性能。其主要是在数仓的第二层里面,因为需要整合一些数据,但是整合之后的数据依旧是明细的,可能有几百亿甚至几千亿的量级,对于这些表而言,数据量往往很大,而且下游任务以及依赖于这个表的报表任务有很多,因此可以做一些轻度的汇总,也就是做一些公共的汇总的中间表,这样应用好了可以节省很多的计算量和成本的。虽然建议大家利用中间表,但是也不建议使用太多的中间表,这还是因为中间表越多,依赖的层级也会越多。

在某些情况下还需要进行拆表,比如某一个大表字段比较多,但是可能其中某两三个字段的产出比较慢,产出很慢可能是因为其加工逻辑很复杂或者数据量比较大导致的,而其他字段产出却是很快的,此时就可以将数据表拆开,将过慢的字段拆出来,并将原来正常的字段留在原来的表,这样就可以避免因为两个过慢的字段影响其他业务,拆表的场景虽然比较常见,但是可能不会在数仓建设初期就出现。

还有一种场景及就是合表,这与拆表是相对的,当大家使用数仓一段时间之后会发现A业务部门出了一些表,B业务部门也出了一些表,而这些表或者数据可能是重叠的,也可能业务含义是一样的,只不过字段不一样。对于这些表而言是可以进行合并的,因为在合并之后可以做整体批量加工的SQL,这样要比多个表批量加工的SQL复杂度要低很多,而且性能要好很多。对于分区的场景而言,也要合理地设置MaxCompute的分区。

此外还有拉链算法,这在传统数仓里面也会用到,大家往往会需要使用拉链算法来记录历史变化情况。而拉链算法会使得计算成本变得比较高,尤其在MaxCompute里面或者离线数仓Hive里面,这是因为其没有Update的操作,因此需要遍历全表,需要对比昨天的全量和今天的增量,甚至是比较昨天的全量和今天的全量,才能得到所想要的拉链算法的结果,这样的计算成本对于MaxCompute而言要高很多。如果数据量不大,每天做全量的拉链算法也是没有问题的,只需要考虑保留多久历史数据的问题。而实际上,有些业务不会关心这些历史数据的变化问题,对于这样的业务其实可以只保留最近多少天的历史数据就可以了。其实是因为MaxCompute这边的数据存储成本很低,如果不使用拉链算法,那么就意味着数据冗余会高很多,所以其实大家可以计算一下每天增量数据的存储成本有多少,再对比一下数据的计算成本,根据自己的业务进行均衡。但是如果每天增量数据达到百亿这种级别,保留全量数据肯定是不现实的,那么就还是去做拉链算法。

模型优化-合理设计分区
MaxCompute分区的功能一定要合理利用,这对于性能会产生很大的影响,一级分区一般都是按照天划分的,建议大家一天一个增量或者一天一个全量来做。二级分区的选择反而会多一些,首先大家可以选择是否建立二级分区,其次大家可以选择二级分区的建立方式。二级分区比较适合于在where语句中经常使用到的字段,而且这个字段应该是可枚举的,比如“男”和“女”这样的。这里还有一个前提,就是如果这个字段的值的分布是非常不均匀的,那么就不太建议做二级分区。

如下图中的例子所示,登录表每天会有9个亿的数据,而其中的一个字段是“是否登录成功”,成功可能有4亿,失败可能有5亿,这就比较适合做二级分区,因为比较均衡。第二个例子是用户访问表,每天新增20亿数据,其中一个字段是“页面访问状态”,成功访问“202”是18亿,而失败“203”只有0.5亿,其他就更少了,这样的字段就不适合做二级分区。在数量级不大的情况下,不建议做二级分区,因为几百万的数据在MaxCompute里面扫描起来也会很快,在数据量大了之后可以再考虑二级分区,因为MaxCompute本身对于分区有一个上限就是6万,也就是一级分区乘以二级分区的个数不能超过6万个。

76b1377eaaa96fc1e9663d64720b6472bc22fc26


三、同步任务优化
同步任务优化可以从下图所示的这样几个点进行考虑。正如下面的这张PPT中图所示。数据同步其实就是源库通过网络进入到DataWorks或者自定义的调度资源里,再从DataWorks里面同步到MaxCompute里面,或者反过来从MaxCompute同步到源库,但是无论怎么说同步就是分为这样的几个点:源库、网络1、DataWorks调度资源、网络2以及MaxCompute,出现瓶颈的地方也就在这几部分中,如果同步任务运行缓慢,那么瓶颈点就只能出现在这几个点中。最常见的情况就是从其他数据库向MaxCompute抽取数据,一般情况下的瓶颈点就在源库这部分,出现问题大家可以优先在源库处寻找。在网络层面,从DataWorks到MaxCompute之间的网络2大家一般不用关心,因为这部分是由阿里云负责的,但是从源库到DataWorks调度的网络1这一段需要由用户自己保证,公网、内网和专线,不同的网络环境中同步的速度也是不一样的。

de117a1acc01f360a6a0a1b191f9e39bdda673b0

再回到同步优化的几个关键点,首先核心同步任务需要定时优先考虑,如果表的数据量比较大或者业务的优先级比较高,那么这些绝对需要提前考虑,因为如果这样的任务不提前,那么排在其后面的任务就会受到影响。第二点就是网路对于同步性能的影响,公网、内网或者专线对于性能也会有一定的影响。第三点就是DataWorks调度资源对于同步任务的影响,大家在DataWorks里面进行同步都是使用默认的调度资源,如果同步任务设置的并发过高,就会导致某一个任务会影响其他任务,比如处理一百万数据启动了20个并发,显然这是没有必要的,但是这样就占掉了全部的同步任务,导致后续运行SQL以及其他的同步任务都跑不起来了,这是因为DataWorks的调度资源不够了。所以数据同步的并发绝对不是越多越好的,当处理一两百万数据的时候,仅需要2到3个并发就足够了。此外,还有就是如何判断源库和目标库哪个是瓶颈点。数据同步主要使用的是数据集成,当离线任务运行完成之后都会产生这样的一个日志,在日志的最后会显示开始时间、结束时间以及写入速度等。在图中有标红的两个点,分别是Task WaitWriterTime和Task WaitReaderTime。如果是从RDS往MaxCompute同步,那么Reader指的就是读取RDS等待的时间,那Writer指的就是写入MaxCompute的等待的时间,哪一边的时间更长就意味着哪一边存在瓶颈点,如果读的方面时间更长,那么就需要从RDS或者网络1入手,也就是通过两方面的时间来判断瓶颈点究竟在哪一部分。

计算任务优化
在计算任务优化部分部分,也只与大家分享在SQL部分开发者应该如何进行优化。大家平时在进行数据处理、数据清洗、数据转换、数据加工等过程中都会使用到SQL。对于SQL的优化而言,主要集中在这样的两个大方面进行:减少数据输入和避免数据倾斜。减少数据输入是最核心的一点,如果数据输入量太大,包括很多无效的数据,那么就会占用很多的计算资源。而数据倾斜是在离线的数仓里面经常会遇到的,几乎每个人都会遇到,数据倾斜也分为好几种,需要对应地进行优化。接下来就为大家展开进行论述。

3d61db78b4cc1b9af923a3efa7407d1756801bea

在正式展开之前还需要讲解一下LogView的用法,因为想要判断问题究竟是因为什么导致都需要从分析LogView入手。每一个SQL执行的时候都会产生一个LogView,如下图中的网址所示,大家可以直接在浏览器打开,之后就能打开汇总的页面,再打开Detail就能看到如下图所示的明细页面。对于明细页面而言,首先需要关注左侧的执行计划,也就是分为了多少个Map、Reduce以及Join节点。其次需要关注TimeLine可以看到哪一个Map运行的时间长,这是寻找数据倾斜的依据。当点击每一个Map就能看到下面的明细,比如某一个Map有10个节点在跑,那么就会有10个点。对于明细而言,重点需要关注的也是TimeLine,需要关注在分成10个的节点里面,究竟哪一个跑得快,哪一个跑得慢。下图中就存在明显的倾斜,也就是0号节点跑得很慢,而其他的节点跑得就比较快,这样就是一个非常明显Map阶段的倾斜。而使用Long-Task则可以快速定位到跑得慢的节点,帮助进行快速定位。

33170a6dbb64d85571b7d61dba0240490abd353b

当然目前也有了比较好用的工具——MaxCompute Studio,其对于LogView的支持更加强大。在这里面可以直接将刚才的网址粘贴过来,也可以直接连接MaxCompute的项目找到Instance,然后直接点击Instance查看其执行日志,甚至可以将LogView保存在本地或者在本地打开,而网页版本过期之后就无法打开了。MaxCompute Studio最好用的地方在于其时序图功能,时序图能够列出某一个时间段,哪一个节点跑得快,哪一个节点跑得慢,做一个整体地列举出来,更加方便地定位到Map、Reduce以及里面小的节点。还有一个分析功能,能够直接为用户提供结果,提示用户哪一个节点跑得慢,哪里出现长尾等问题。

a6241cdb8450edd9ca861e8d71c7a873cc1b9b16

分区的合理使用
前面讲述了分区应该如何设计,这里着重讲解分区应该如何使用。如果表存在一级分区,那么将分区的筛选放到了条件里面就是一种错误的写法,有可能导致全表扫描。最好的写法就是像下图右侧所示的一样,把Table1的PT先进行筛选做一个子查询,再把Table2的也做一个分区先筛选了作为t2,之后将它们两个Join在一起再加上一个where条件,这样就能避免全表扫描。对于PT而言,如果使用了系统自带的函数,应该会做分区裁剪,而如果使用了自定义的函数对于PT进行加工,并放到了where条件里就有可能导致全表扫描,而现在DataWorks里面也会有系统提示,也便于大家进行判断。

02d495336d2b0d63cac7881ea871ff1bf2a17b3f

多路输入
在MaxCompute里面支持多路输入,可以读取一个表的数据并将其同时写入到两个地方,这样就保证了只做了一次查询,而可以直接生成两个结果表。下图是一个电商的例子,大概就是在销售订单表里面有卖家和买家,分别统计了卖家和买家的数量分别是多少,以前可能需要拆分成两个SQL,而现在可以用一个SQL同时统计两者的数量,只需要读取一次原表就可以了,既能够节省时间,也能够节省成本。

d9c90cf59d6d92da9f3922185f38e75342cb3816

慎用SELECT*
因为MaxCompute里面是列式存储,所以同一列的数据都是存储在一起的,甚至于因为列内容相似都会有一些压缩算法在里面。而SELECT*查询全列与直接查询两个字段的性能差距是非常大的,所以作为数据开发的规范,无论数据量大小都一定不要使用SELECT*就好了。

c196673c745589da53aaf05552bdda3aa775b314

先过滤JOIN,REDUCE,UDF
还有一个减少数据量的办法就是在使用Join、Reduce或者UDF的时候,先做过滤在做具体的计算或者Join。

2c5e15795c499efdefbacd0f6791fe62499660c4

合表
合表也是减少数据输入的一种方式,它其实是从业务的角度切入考虑的。比如有一个业务分别用到了T1和T2的两列,另外一个业务分别用到了T1和T3的两列,而这两个业务其实是可以合并到一起的,但是却放到了两个表,而这样就可以将这两个表合并到一起,这样只做一次计算就完成了。

6b03d6f3c3ded6f9fa28c9439d29c83de34a9030

Map倾斜
在LogView里面有一个Map的时序,可以看到每个Map里面有多少个Instance,里面的哪一个耗时比较长就是发生了数据倾斜。同样的,在LogView里面也能找到Map的平均执行时间以及最大执行时间,如果两者相差很大,那么必然出现了倾斜。对于这样的问题,从业务层面进行解决一般是修改上游数据,让上游按照均衡的KV值进行重新分布。如果业务层面无法规避,那么可以调整Map的个数,也就是加大Map的计算节点,在默认情况下是每256M数据切一个节点,可以将其调小,也就加大了Map处理节点的个数,使得数据分割得更加均匀一些。

a0e162c2e50ce8ce0d3d0d89458ab947b1c855fd

Join倾斜
Join阶段的倾斜也是比较常见的,这一现象的发现与Map倾斜基本相同,也是可以通过LogView判断。但是其解决方案却需要分为几种情况进行处理:
-情况1:如果为大表与小表(加载到内存不超过512M),则对小表加MAPJOIN HINT
-情况2:两个大表Join,KEY值出现数据倾斜,倾斜值为NULL,则需对NULL进行随时值处理
-情况3:两个大表Join,可以尽量先去重后再Join    
-情况4:两个大表Join,业务层面考虑优化,检查业务的必要性

4530245dbcbc6ab18b1bf4444f4148c2ec5fa6e0

下图展现的是Join倾斜的几个具体例子,可以分析具体造成倾斜的情况做出相应的处理。

be28a1f77128eddced31d164bbc423340ca14a84

Reduce倾斜
Reduce倾斜现象的查看方式和前面的Map以及Join查看的方式相同,可以从TimeLine看到。可能的情况主要有以下四种:
-情况1:GROUP BY 某个KEY倾斜严重(1. 是否可以过滤 2. 写法改变,见图)
-情况2:DISTINCT引起的倾斜(打标+GROUPBY)    
-情况3:动态分区引起的倾斜,尽量避免使用动态分区
-情况4:窗口函数引起的倾斜,尽量避免使用窗口函数,要视具体情况而定

3f98b590a08e28677d43c965f80875a96b470063

Reduce倾斜-DISTINCT
如果是因为DISTINCT造成的数据倾斜,有一种解决方法就是打标+GROUPBY,比如在下图的例子中就是对于求IP段,求美国IP段、中国IP段以及总的IP段一共有多少个,左边这种图简单的写法,当出现IP Key的倾斜就会使得作业比较慢,那么就可以将其打散,先求解这条ID的记录是美国的还是中国的,在子查询里先做这一步,在外面再去求解总的Count或者Sum,从原本Map-Reduce两个阶段的处理改成了Map-Reduce-Reduce三个阶段处理,这种方案也能解决数据倾斜问题。

2850f796b61961c9a65e5dbabb4a23a3dd639e54

总结一下,性能调优归根结底还是资源不够了或者资源使用的不合理,或者是因为任务分配的不好,使得某些资源分配和利用不合理。大家需要根据本文的内容考虑如何将自己的任务打散,保证任务在规定的时间内能够执行完毕,同时能够保证成本的节约。当然了,大家不仅需要考虑MaxCompute的计算资源,也需要考虑DataWorks的调度资源,所以性能优化最终还是在和资源作斗争,看资源是否足够,分配是否合理。

da1f65e6113c288961f2d7eb3d0403a6cc368ee8

文由云栖社区志愿团队- 贾子甲整理而成,编辑: 仲浩,原作者&审校: 弘锐
相关实践学习
AnalyticDB MySQL海量数据秒级分析体验
快速上手AnalyticDB MySQL,玩转SQL开发等功能!本教程介绍如何在AnalyticDB MySQL中,一键加载内置数据集,并基于自动生成的查询脚本,运行复杂查询语句,秒级生成查询结果。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
1月前
|
存储 缓存 分布式计算
大数据-83 Spark 集群 RDD编程简介 RDD特点 Spark编程模型介绍
大数据-83 Spark 集群 RDD编程简介 RDD特点 Spark编程模型介绍
36 4
|
1月前
|
消息中间件 监控 数据可视化
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
大数据-79 Kafka 集群模式 集群监控方案 JavaAPI获取集群指标 可视化监控集群方案: jconsole、Kafka Eagle
51 2
|
1月前
|
存储 分布式计算 API
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
82 0
|
16天前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
17天前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
48 1
|
1月前
|
分布式计算 大数据 Serverless
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展
在2024云栖大会开源大数据专场上,阿里云宣布推出实时计算Flink产品的新一代向量化流计算引擎Flash,该引擎100%兼容Apache Flink标准,性能提升5-10倍,助力企业降本增效。此外,EMR Serverless Spark产品启动商业化,提供全托管Serverless服务,性能提升300%,并支持弹性伸缩与按量付费。七猫免费小说也分享了其在云上数据仓库治理的成功实践。其次 Flink Forward Asia 2024 将于11月在上海举行,欢迎报名参加。
178 1
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展
ly~
|
1月前
|
供应链 搜索推荐 安全
大数据模型的应用
大数据模型在多个领域均有广泛应用。在金融领域,它可用于风险评估与预测、智能营销及反欺诈检测,助力金融机构做出更加精准的决策;在医疗领域,大数据模型能够协助疾病诊断与预测、优化医疗资源管理和加速药物研发;在交通领域,该技术有助于交通流量预测、智能交通管理和物流管理,从而提升整体交通效率;电商领域则借助大数据模型实现商品推荐、库存管理和价格优化,增强用户体验与企业效益;此外,在能源和制造业中,大数据模型的应用范围涵盖从需求预测到设备故障预测等多个方面,全面推动了行业的智能化转型与升级。
ly~
82 2
|
1月前
|
存储 NoSQL 大数据
大数据-51 Redis 高可用方案CAP-AP 主从复制 一主一从 全量和增量同步 哨兵模式 docker-compose测试
大数据-51 Redis 高可用方案CAP-AP 主从复制 一主一从 全量和增量同步 哨兵模式 docker-compose测试
33 3
|
20天前
|
数据采集 分布式计算 OLAP
最佳实践:AnalyticDB在企业级大数据分析中的应用案例
【10月更文挑战第22天】在数字化转型的大潮中,企业对数据的依赖程度越来越高。如何高效地处理和分析海量数据,从中提取有价值的洞察,成为企业竞争力的关键。作为阿里云推出的一款实时OLAP数据库服务,AnalyticDB(ADB)凭借其强大的数据处理能力和亚秒级的查询响应时间,已经在多个行业和业务场景中得到了广泛应用。本文将从个人的角度出发,分享多个成功案例,展示AnalyticDB如何助力企业在广告投放效果分析、用户行为追踪、财务报表生成等领域实现高效的数据处理与洞察发现。
48 0
|
1月前
|
SQL 分布式计算 大数据
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(一)
大数据-108 Flink 快速应用案例 重回Hello WordCount!方案1批数据 方案2流数据(一)
46 0

相关产品

  • 云原生大数据计算服务 MaxCompute