DataWorks熟能生巧系列直播第六期:数据集成日志详解

本文涉及的产品
大数据开发治理平台DataWorks,资源组抵扣包 750CU*H
简介: 数据集成的任务日志主要分为两个部分,第一部分主要打印任务的整体状态,第二部分打印线程明细、各子线程执行过程以及执行结果。这两部分日志是分开的,但有一个共同的调度信息模块,记录运行机器、地域信息、项目名、节点信息、参数值等。此外,数据集成资源组有3种标识,我们通过标识能轻松识别数据集成跑在哪个资源组上。

分享人:DataWorks技术支持团队


我们在开发者社区学习路线里有发布一个DataWorks的学习路线,里面包含了入门讲解和熟能生巧系列的直播内容,大家可以去学习一下,需要主账号登陆学习哦:https://developer.aliyun.com/learning/course/81

本期视频地址:https://developer.aliyun.com/learning/course/81/detail/1243


数据集成日志介绍

数据集成的任务日志主要分为两个部分,第一部分主要打印任务的整体状态,第二部分打印线程明细、各子线程执行过程以及执行结果。这两部分日志是分开的,但有一个共同的调度信息模块,记录运行机器、地域信息、项目名、节点信息、参数值等。此外,数据集成资源组有3种标识,我们通过标识能轻松识别数据集成跑在哪个资源组上。

幻灯片2.PNG

日志的第一部分是打印出同步任务的四个主要状态,包括submit、wait、run、success/failed。submit是将任务从一级调度资源组提交到数据集成资源组上,让任务开始真正地执行,同一个任务只允许提交一次,多次提交会引起多实例job冲突,造成submit failed  ;wait表示等待数据集成资源组分配资源使该任务运行;run表示数据集成任务已经在资源组上运行了;success/failed表示任务执行成功或失败。

幻灯片3.PNG

日志的第二部分主要是任务执行明细、子线程执行情况以及结果返回信息、数据写入信息等,可在运行日志中找detail log url这个标识符来查看详细日志。

幻灯片4.PNG

这部分日志主要分为六个部分。第一部分是任务渲染完毕后提交的实际配置以及参数替换结果的Json配置。数据集成任务渲染之后的一个Json配置会提交到数据集成资源组上,由数据集成插件对该部分信息进行解析并开始执行各阶段任务;第二部分是数据源端的表信息和列信息;第三部分是odps表做数据清理;第四部分是根据配置的切分键生成SQL,并到数据源端根据切分的SQL进行数据查询,若是配置了querysql那么会执行querysql忽略切分键配置 ;第五部分是执行取数SQL并向目的端写入数据;第六部分是数据条款、速率的最终统计。

幻灯片5.PNG

下面是一些常见问题和解决办法,比如:

  • 1、odps表不存在的问题:因为标准空间模式是开发和生产环境隔离的,如果odps仅创建了开发表没有生产表,那么数据集成任务发布运行的时候是找不到生产表的,需要创建对应的生产表。
  • 2、任务提交后一直是wait状态的问题:通常是资源不足导致任务运行不起来,比如使用公共数据集成资源组在高峰期争抢不到资源,或者使用独享资源组规格不够大,支持的并发数小于任务的并发数,或者其他同步任务占用了独享资源组,剩余资源不够启动任务等。
  • 3、任务一直处于run状态但是卡在某个百分点不往下进行的问题:首先检查是不是配置了presql或者postsql且执行时间很长,其次查看detail log排查是否某个子线程取数时数据库超时没返回结果
  • 4、读取数据库端数据时报链接超时异常的问题:数据库端通常执行超过15分钟会报network timeout的错误,这个超时时间可以在数据库端修改,或者优化取数sql控制取数时间小于超时时间
  • 5、网络不通的问题:网络不同通常是白名单未添加或者资源组没有绑定专有网络。数据集成添加数据源时有提供网络连通工具专门连通网络,我们在熟能生巧第4期也有详细讲解如何打通独享资源组和VPC数据源网络,大家可以参考一下


幻灯片6.PNG

实例日志详解

下面看一个具体的实例。这里配置了一个rds MySQL同步到odps的任务,我们在DataWorks运维中心的周期任务中可以查到这个任务。

下图是提交到数据集成资源组的JSON配置

实战1.png


这里是第一部分日志,主要看这几个点。第二行这里看任务实际运行在哪个机器上;Paravalue是调度参数配置实际替换的值;srcDs这里是数据源名称;SKYNET_ID是任务的节点ID……其他的是一些系统参数。

实战2.png


ALISA_TASK_EXEC_TARGET是运行所在的调度资源组,即一级任务分发的资源组。

实战3.png


The Job[351576497] 中括号中就是数据集成的实例ID,后面Basecommon_group表示公共数据集成资源组,下面detail log是详细日志打印的地方。

实战4.png


接下来看第二部分日志,也就是detail log。首先上面这块信息和第一部分基本一样,不再赘述。下图底部可看到DataX的版本,如果使用的资源组DataX版本过低,比如这里是2019年的版本,可以提工单升级资源组DataX版本。

实战5.png


下面这块是任务渲染之后的状态,有非常明细的信息,比如datasource等,

可以帮助我们排查后续的任务运行情况。

实战6.png


任务渲染信息下面,这一行有明显的从数据库端获取表名和列信息的标识,可以方便我们快速识别表结构,检查配置的列数左右两边是否一致。

实战7.png

下面是根据rds MySQL配置的spilt pk,根据这个ID值来对MySQL的数据进行切分,这里切分为了10块,切分后的SQL也有明细的打印。

实战8.png


下面是实际的执行,这里生成了9个task,然后具体执行。

实战9.png


这里执行的是1≤ID<2,然后把这两个划分到一个task group的一个task ID里,取出来的数据会写到odps端。

实战10.png


执行完毕后会明确地提示子进程执行完毕,使用了多长时间,成功了多少条数据,失败了多少条数据。随后下面是周而复始地对SQL进行执行,并且向目的端写入。

实战11.png


执行完之后打印出最终结果,一共9条数据,51个字节 ,速率是2b/s,全部写入成功了。基本上第二部分日志就对应了之前PPT中讲的那6个模块。

实战12.png


以上就是本次“数据集成日志详解”讲解的全部内容,有问题需要解答的同学可以扫码加一下我们的钉钉大群,群里有直播回放可以观看,技术支持的同学们也会回答大家的问题。

感谢大家的关注!

DataWorks部门主群二维码.JPG



相关实践学习
基于Hologres轻量实时的高性能OLAP分析
本教程基于GitHub Archive公开数据集,通过DataWorks将GitHub中的项⽬、行为等20多种事件类型数据实时采集至Hologres进行分析,同时使用DataV内置模板,快速搭建实时可视化数据大屏,从开发者、项⽬、编程语⾔等多个维度了解GitHub实时数据变化情况。
相关文章
|
8月前
|
SQL druid Oracle
【YashanDB知识库】yasdb jdbc驱动集成druid连接池,业务(java)日志中有token IDENTIFIER start异常
客户Java日志中出现异常,影响Druid的merge SQL功能(将SQL字面量替换为绑定变量以统计性能),但不影响正常业务流程。原因是Druid在merge SQL时传入null作为dbType,导致无法解析递归查询中的`start`关键字。
|
8月前
|
SQL 弹性计算 DataWorks
Flink CDC 在阿里云 DataWorks 数据集成入湖场景的应用实践
Flink CDC 在阿里云 DataWorks 数据集成入湖场景的应用实践
399 6
|
8月前
|
DataWorks 关系型数据库 Serverless
DataWorks数据集成同步至Hologres能力介绍
本文由DataWorks PD王喆分享,介绍DataWorks数据集成同步至Hologres的能力。DataWorks提供低成本、高效率的全场景数据同步方案,支持离线与实时同步。通过Serverless资源组,实现灵活付费与动态扩缩容,提升隔离性和安全性。文章还详细演示了MySQL和ClickHouse整库同步至Hologres的过程。
|
10月前
|
DataWorks 关系型数据库 Serverless
DataWorks数据集成同步至Hologres能力介绍
本次分享的主题是DataWorks数据集成同步至Hologres能力,由计算平台的产品经理喆别(王喆)分享。介绍DataWorks将数据集成并同步到Hologres的能力。DataWorks数据集成是一款低成本、高效率、全场景覆盖的产品。当我们面向数据库级别,向Hologres进行同步时,能够实现简单且快速的同步设置。目前仅需配置一个任务,就能迅速地将一个数据库实例内的所有库表一并传输到Hologres中。
252 12
|
10月前
|
存储 安全 Java
Spring Boot 3 集成Spring AOP实现系统日志记录
本文介绍了如何在Spring Boot 3中集成Spring AOP实现系统日志记录功能。通过定义`SysLog`注解和配置相应的AOP切面,可以在方法执行前后自动记录日志信息,包括操作的开始时间、结束时间、请求参数、返回结果、异常信息等,并将这些信息保存到数据库中。此外,还使用了`ThreadLocal`变量来存储每个线程独立的日志数据,确保线程安全。文中还展示了项目实战中的部分代码片段,以及基于Spring Boot 3 + Vue 3构建的快速开发框架的简介与内置功能列表。此框架结合了当前主流技术栈,提供了用户管理、权限控制、接口文档自动生成等多项实用特性。
748 8
|
Java 程序员 API
Android|集成 slf4j + logback 作为日志框架
做个简单改造,统一 Android APP 和 Java 后端项目打印日志的体验。
643 1
|
数据采集 DataWorks 数据管理
DataWorks不是Excel,它是一个数据集成和数据管理平台
【10月更文挑战第10天】随着大数据技术的发展,企业对数据处理的需求日益增长。阿里云推出的DataWorks是一款强大的数据集成和管理平台,提供从数据采集、清洗、加工到应用的一站式解决方案。本文通过电商平台案例,详细介绍了DataWorks的核心功能和优势,展示了如何高效处理大规模数据,帮助企业挖掘数据价值。
368 1
|
数据采集 SQL DataWorks
DataWorks不是Excel,它是一个数据集成和数据管理平台
【10月更文挑战第5天】本文通过一家电商平台的案例,详细介绍了阿里云DataWorks在数据处理全流程中的应用。从多源数据采集、清洗加工到分析可视化,DataWorks提供了强大的一站式解决方案,显著提升了数据分析效率和质量。通过具体SQL示例,展示了如何构建高效的数据处理流程,突显了DataWorks相较于传统工具如Excel的优势,为企业决策提供了有力支持。
391 3
|
存储 分布式计算 DataWorks
dataworks数据集成
dataworks数据集成
484 2
|
机器学习/深度学习 DataWorks 数据挖掘
基于阿里云Hologres和DataWorks数据集成的方案
基于阿里云Hologres和DataWorks数据集成的方案
251 7

相关产品

  • 大数据开发治理平台 DataWorks