门道多:一次MaxCompute PS任务的问题排查之旅

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 关于PS是什么,可以参考一下以下两个介绍:基于参数服务器的大规模在线学习算法和Parameter Server。更多问题可以咨询玄乐。下面主要总结一下这回遇到一个PS任务跑不起来的问题排查过程。不想看过程的直接看最后一点总结就行。一 为什么要分享一个问题排查过程        作为初级用户来说只要会基于SDK的编程和命令使用就OK了,但对于广告这种重度高级用




关于PS是什么,可以参考一下以下两个介绍:基于参数服务器的大规模在线学习算法Parameter Server。更多问题可以咨询玄乐。下面主要总结一下这回遇到一个PS任务跑不起来的问题排查过程。不想看过程的直接看最后一点总结就行。

一 为什么要分享一个问题排查过程   

    作为初级用户来说只要会基于SDK的编程和命令使用就OK了,但对于广告这种重度高级用户来说,如果还把计算框架和MaxCompute当成黑盒来用,任务跑不起来了或者任务出错了就只能两眼一抹黑了,这次分享一来是By Case解了一个很复杂的问题,二来是摸清了里面的门道,简单是一环扣一环,觉得有必要分享一下,给有需要的同学可做下参考。

二 问题的现象

    一个PS任务从提交到最后人工Kill经过了7小时,一直没起起来,而该任务以前是可以正常运行完成的。如下图所示,有两个实例一直处在Ready状态。任务状态

三、排查过程
    首先,在排查之前有必要交待一些基本信息,PS任务主要角色三个:coordinator/server/worker,如下盗图,

这里面有几个关键点先交待下:

1、coordinator占用资源较少,只会起一个Instance,占用资源基本是1Core + 1G;

2、Server和Worker占用资源较多,根据特征量和样本大小的不同其实例个数也有较大差别,目前大的能到3000个实例(如本Case),每个实例需要10Core + 5~20G;

3、aon:即all-or-nothing,介绍,必须(三个Task)所有的实例都分配到了资源才会开始进行迭代计算;aon模式是采用机器打标预留资源的方式给任务分配资源,会以占满整机的方式分配,照例来个示例:一个任务有120个实例,每个实例要8core,单机是31Core,那么一台机器上就能放3个实例占24Core,剩下7Core则分给其他任务,该任务一共要占120/3=40台机器。

4、中间如果某个实例失败了,整个计算都会暂停,直到所有实例拿够资源才会恢复运行;

5、如下出现数字中如果没有单位,则CPU单位为1核=100个基本单位、内存单位为MB;

【第一轮】:目标直指资源不够。

任务所在的AY87B集群资源:按s10机型(32Core + 128G,实际可用31Core + 110G)推算应该是3600+的机器数,目前分给了两个quota组,alimm_mpi_kgb:2000台,alimm_mpi_k2:1100台(感觉绰绰有余的样子);

该Job被Kill时的基本信息:(为了简化,略去mem信息,因为本Case 内存不是瓶颈)

Task类型

实例数(Total/Ready/Running)

单实例Cpu需求

汇总CPU

coordinator

1/1/0

100

100

Server

3000/2/2998

1500

4500000

Worker

3000/0/3000

1500

4500000

所有汇总

 

 

9000100

PS是在aon模式下工作的(这个判断后面被证实是不完全对的,汗),单机能分配的worker是2个(15 * 2=30core,31core能容下两个),Server单机也是能起2个,这样算下来基本需要3000台机器;

咦,但Job所在的quota组(alimm_mpi_kgb)只分配到了2000台,按理说应该有1000台的缺口会导致有2000个实例处在Ready状态,同时算出来的资源需求是9000100,而神农监控里面发现实际资源需求(request项)只有5400100,如下图

问题出在哪?

         【第二轮】:PS内部有玄机

         找到玄乐细细了解了一下,得到两个很重要的线索,PS内部有一些默认约束:

  • 由于某种原因,Worker的资源申请量会打7折,Server会打5折;
  • 单台机器上只能启动1个Server和2个Worker;如下是发给Fuxi的json串

 "PSServerTask": {
                "MaxAssignCountEachMachine": 1,

 "Resource": {
                    "CPU": 750,// server打了5折
                    "Memory": 5000} // mem不打折

}

"PSWorkerTask": {

                "MaxAssignCountEachMachine": 2,

 "Resource": {
                    "CPU": 1050, //worker打了7折
                    "Memory": 5000}// mem不打折

}

  • PS内部没有使用all-or-nothing,只是他的行为符合aon特征;

这样一来,上述表格需要调整一下

Task类型

实例数(Total/Ready/Running)

单实例Cpu需求

汇总CPU

coordinator

1/1/0

100

100

Server

3000/2/2998

1500*0.5

2250000

Worker

3000/0/3000

1500*0.7

3150000

所有汇总

 

 

5400100

这回资源对上了,单机起2个worker需要1500台机器(能同时起1500个Server),起3000 个server还需要1500台,缺口只有2个Server(2台),但集群明明逻辑上有3600+,为什么持续7个小时分配不到,而集群的整体利用率也不是很高,如下图:

【第三轮】这时你必须知道的物理部署情况

         由于一直负责广告的MaxCompute接口,所以马上想到了ay87b集群物理上机器型号有差异,是s10(32core + 128G)和n41(64core + 192G,实际可用63core + 170g)混布的,物理上大概有3040台,这个数字和3000好接近呀,但还是大于3000呀,同时这个时候发现了另外一个现象:虽然最终发现有2个Ready的Server,但实际这7个小时经历了三段:18~20点缺口有53台;20~22点资源是够的;22点到被Kill资源最终差2台;

【第四轮】机器有加黑、资源有碎片

是不是有什么情况导致机器可用数低于3000呀,现在一切应该朝着可用数2998去追踪了。

18~20点:从资源缺口和实际的server实例的start_time算出有53台【(request-used)/(1500 * 0.5)】的机器缺口,基本确定有两个因素:一是华佗加黑了几台机器,二是当时另外一个quota组(alimm_mpi_k2)启动的任务了多个aon类型的xlibmpi任务,有90台左右的机器上剩余资源小于750,导致资源碎片化,如下图中的蓝色部分,正好是8点有个资源使用的下降,说明有个任务跑完了释放出来了部分机器。

最终也找出了这个Xlibmpi任务,其配置如下:

    "Resource":{"CPU":1200,"Memory":50000},
    "managedInstanceNum":240,

如按s10机型来看,基本就是占了120台机器,每台机器还剩下700(7Core),刚刚不够这人PS任务的Server用(需要750)。如果按N41机型来看,单机还能剩下6300-2400=3900,所以是够起Server的,这里基本可以判断出该xlibmpi任务占了约90台s10,30来台n41。 

20~22点:这期间资源是够的,按理说任务应该能跑起来了,但用户反馈没有看到任务有过运行过的日志记录, 2小时肯定够任务跑好多轮了。 

22~01(被Kill):这期间大批量机器被加黑,如下图所示,通过后台日志分析发现共有32台被加黑了。同时上图alimm_mpi_k2在22点左右的空降也说明那个时间机器加黑数较大,同时影响了两个quota组,而alimm_mpi_kgb只被影响了几台,这个时候总的物理上可用机器数应该就定格在2998台了,直到被kill也没有拿够。

【第五轮】coordinator也failover了

         对于20~22点任务没执行这个问题实际上是个误判,因此通过玄乐提供的诊断任务工具(Here)发现coordinator在21:59:16发生过failover,如下图

,发生failover时之前的日志就被清空了,所以实际上该Job是运行过2小时左右的。这下整个问题基本也就梳理清楚了。

四 总结的几个收获点

  • PS没有设置isAllOrNothing; Ps行为上是aon,但在资源分配上实际没有使用aon;
  • 单机默认有2Worker 和1Server限制;
  • Worker的CPU会打7折,Server的CPU会打5折,而Mem则不打折。至于原因嘛还是因为Fuxi底层在CPU限制上面没有太死,而Mem上则使用过了就会被Kill。
  • 规划任务和资源时一定要留点Buffer;
  • 分布式系统下物理部署有时候很难对用户透明;
  • PS内部会对coordinator/server/worker做failover;
  • PS默认10轮做一次checkpoint;
  • 查看任务jobstatus和任务在控制集群上的行为可以参考两个工具:detectSLS
  • 机器加黑时有发生,而且有时候量还会比较大,如果几十台;可以通过神农监控查看;

五、存在的问题

1、会发现像这回这种大任务资源需求大,设置好plan mem/cpu实际上较难,受物理部署/单机网卡/单机内存和cpu/是否统一机型等多种因素影响,需要测试出一些经验值;

2、Logview里面coordinator failover之后看不到之前的stderr了

3、之前想做的aon/mpi类任务按团队隔离还是会面临物理上相互影响的情况,面临多因素难平衡的问题,一方面希望worker/server 尽量分散(要求机器多),另一方面又需要aon任务不要花时间去攒资源(资源要充足),但同时集群利用率又要保障,现在也在探索一些解决方案,希望大家也多多提提想法。总之,优化这条路还长着呢



相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
3月前
|
SQL 分布式计算 运维
如何对付一个耗时6h+的ODPS任务:慢节点优化实践
本文描述了大数据处理任务(特别是涉及大量JOIN操作的任务)中遇到的性能瓶颈问题及其优化过程。
|
4月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
2月前
|
资源调度 分布式计算 大数据
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
103 0
|
5月前
|
分布式计算 资源调度 DataWorks
MaxCompute产品使用合集之如何增加MC中Fuxi任务的实例数
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
弹性计算 分布式计算 DataWorks
MaxCompute操作报错合集之运行pyodps报错超时,该如何排查
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
4月前
|
SQL 分布式计算 DataWorks
DataWorks操作报错合集之如何解决datax同步任务时报错ODPS-0410042:Invalid signature value
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
5月前
|
分布式计算 自然语言处理 大数据
MaxCompute操作报错合集之使用pyodps读取全表(百万级),然后对其中某列apply自己定义的分词函数,遇到报错,该如何排查
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
5月前
|
SQL 分布式计算 大数据
MaxCompute操作报错合集之运行DDL任务时出现异常,具体错误是ODPS-0110061,该如何处理
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
110 3
|
5月前
|
分布式计算 大数据 关系型数据库
MaxCompute产品使用合集之如何在MR任务中使用DECIMAL字段
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
SQL 分布式计算 大数据
MaxCompute产品使用合集之如何提升sql任务并行度
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
107 1