DataWorks熟能生巧系列直播第六期:数据集成日志详解

本文涉及的产品
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
简介: 数据集成的任务日志主要分为两个部分,第一部分主要打印任务的整体状态,第二部分打印线程明细、各子线程执行过程以及执行结果。这两部分日志是分开的,但有一个共同的调度信息模块,记录运行机器、地域信息、项目名、节点信息、参数值等。此外,数据集成资源组有3种标识,我们通过标识能轻松识别数据集成跑在哪个资源组上。

分享人:DataWorks技术支持团队


我们在开发者社区学习路线里有发布一个DataWorks的学习路线,里面包含了入门讲解和熟能生巧系列的直播内容,大家可以去学习一下,需要主账号登陆学习哦:https://developer.aliyun.com/learning/course/81

本期视频地址:https://developer.aliyun.com/learning/course/81/detail/1243


数据集成日志介绍

数据集成的任务日志主要分为两个部分,第一部分主要打印任务的整体状态,第二部分打印线程明细、各子线程执行过程以及执行结果。这两部分日志是分开的,但有一个共同的调度信息模块,记录运行机器、地域信息、项目名、节点信息、参数值等。此外,数据集成资源组有3种标识,我们通过标识能轻松识别数据集成跑在哪个资源组上。

幻灯片2.PNG

日志的第一部分是打印出同步任务的四个主要状态,包括submit、wait、run、success/failed。submit是将任务从一级调度资源组提交到数据集成资源组上,让任务开始真正地执行,同一个任务只允许提交一次,多次提交会引起多实例job冲突,造成submit failed  ;wait表示等待数据集成资源组分配资源使该任务运行;run表示数据集成任务已经在资源组上运行了;success/failed表示任务执行成功或失败。

幻灯片3.PNG

日志的第二部分主要是任务执行明细、子线程执行情况以及结果返回信息、数据写入信息等,可在运行日志中找detail log url这个标识符来查看详细日志。

幻灯片4.PNG

这部分日志主要分为六个部分。第一部分是任务渲染完毕后提交的实际配置以及参数替换结果的Json配置。数据集成任务渲染之后的一个Json配置会提交到数据集成资源组上,由数据集成插件对该部分信息进行解析并开始执行各阶段任务;第二部分是数据源端的表信息和列信息;第三部分是odps表做数据清理;第四部分是根据配置的切分键生成SQL,并到数据源端根据切分的SQL进行数据查询,若是配置了querysql那么会执行querysql忽略切分键配置 ;第五部分是执行取数SQL并向目的端写入数据;第六部分是数据条款、速率的最终统计。

幻灯片5.PNG

下面是一些常见问题和解决办法,比如:

  • 1、odps表不存在的问题:因为标准空间模式是开发和生产环境隔离的,如果odps仅创建了开发表没有生产表,那么数据集成任务发布运行的时候是找不到生产表的,需要创建对应的生产表。
  • 2、任务提交后一直是wait状态的问题:通常是资源不足导致任务运行不起来,比如使用公共数据集成资源组在高峰期争抢不到资源,或者使用独享资源组规格不够大,支持的并发数小于任务的并发数,或者其他同步任务占用了独享资源组,剩余资源不够启动任务等。
  • 3、任务一直处于run状态但是卡在某个百分点不往下进行的问题:首先检查是不是配置了presql或者postsql且执行时间很长,其次查看detail log排查是否某个子线程取数时数据库超时没返回结果
  • 4、读取数据库端数据时报链接超时异常的问题:数据库端通常执行超过15分钟会报network timeout的错误,这个超时时间可以在数据库端修改,或者优化取数sql控制取数时间小于超时时间
  • 5、网络不通的问题:网络不同通常是白名单未添加或者资源组没有绑定专有网络。数据集成添加数据源时有提供网络连通工具专门连通网络,我们在熟能生巧第4期也有详细讲解如何打通独享资源组和VPC数据源网络,大家可以参考一下


幻灯片6.PNG

实例日志详解

下面看一个具体的实例。这里配置了一个rds MySQL同步到odps的任务,我们在DataWorks运维中心的周期任务中可以查到这个任务。

下图是提交到数据集成资源组的JSON配置

实战1.png


这里是第一部分日志,主要看这几个点。第二行这里看任务实际运行在哪个机器上;Paravalue是调度参数配置实际替换的值;srcDs这里是数据源名称;SKYNET_ID是任务的节点ID……其他的是一些系统参数。

实战2.png


ALISA_TASK_EXEC_TARGET是运行所在的调度资源组,即一级任务分发的资源组。

实战3.png


The Job[351576497] 中括号中就是数据集成的实例ID,后面Basecommon_group表示公共数据集成资源组,下面detail log是详细日志打印的地方。

实战4.png


接下来看第二部分日志,也就是detail log。首先上面这块信息和第一部分基本一样,不再赘述。下图底部可看到DataX的版本,如果使用的资源组DataX版本过低,比如这里是2019年的版本,可以提工单升级资源组DataX版本。

实战5.png


下面这块是任务渲染之后的状态,有非常明细的信息,比如datasource等,

可以帮助我们排查后续的任务运行情况。

实战6.png


任务渲染信息下面,这一行有明显的从数据库端获取表名和列信息的标识,可以方便我们快速识别表结构,检查配置的列数左右两边是否一致。

实战7.png

下面是根据rds MySQL配置的spilt pk,根据这个ID值来对MySQL的数据进行切分,这里切分为了10块,切分后的SQL也有明细的打印。

实战8.png


下面是实际的执行,这里生成了9个task,然后具体执行。

实战9.png


这里执行的是1≤ID<2,然后把这两个划分到一个task group的一个task ID里,取出来的数据会写到odps端。

实战10.png


执行完毕后会明确地提示子进程执行完毕,使用了多长时间,成功了多少条数据,失败了多少条数据。随后下面是周而复始地对SQL进行执行,并且向目的端写入。

实战11.png


执行完之后打印出最终结果,一共9条数据,51个字节 ,速率是2b/s,全部写入成功了。基本上第二部分日志就对应了之前PPT中讲的那6个模块。

实战12.png


以上就是本次“数据集成日志详解”讲解的全部内容,有问题需要解答的同学可以扫码加一下我们的钉钉大群,群里有直播回放可以观看,技术支持的同学们也会回答大家的问题。

感谢大家的关注!

DataWorks部门主群二维码.JPG



相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标  通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群  企业数据仓库开发人员  大数据平台开发人员  数据分析师  大数据运维人员  对于大数据平台、数据中台产品感兴趣的开发者
相关文章
|
10天前
|
DataWorks 数据挖掘 大数据
方案实践测评 | DataWorks集成Hologres构建一站式高性能的OLAP数据分析
DataWorks在任务开发便捷性、任务运行速度、产品使用门槛等方面都表现出色。在数据处理场景方面仍有改进和扩展的空间,通过引入更多的智能技术、扩展数据源支持、优化任务调度和可视化功能以及提升团队协作效率,DataWorks将能够为企业提供更全面、更高效的数据处理解决方案。
|
2月前
|
Java 程序员 API
Android|集成 slf4j + logback 作为日志框架
做个简单改造,统一 Android APP 和 Java 后端项目打印日志的体验。
132 1
|
2月前
|
数据采集 DataWorks 数据管理
DataWorks不是Excel,它是一个数据集成和数据管理平台
【10月更文挑战第10天】随着大数据技术的发展,企业对数据处理的需求日益增长。阿里云推出的DataWorks是一款强大的数据集成和管理平台,提供从数据采集、清洗、加工到应用的一站式解决方案。本文通过电商平台案例,详细介绍了DataWorks的核心功能和优势,展示了如何高效处理大规模数据,帮助企业挖掘数据价值。
130 1
|
2月前
|
数据采集 SQL DataWorks
DataWorks不是Excel,它是一个数据集成和数据管理平台
【10月更文挑战第5天】本文通过一家电商平台的案例,详细介绍了阿里云DataWorks在数据处理全流程中的应用。从多源数据采集、清洗加工到分析可视化,DataWorks提供了强大的一站式解决方案,显著提升了数据分析效率和质量。通过具体SQL示例,展示了如何构建高效的数据处理流程,突显了DataWorks相较于传统工具如Excel的优势,为企业决策提供了有力支持。
122 3
|
3月前
|
存储 分布式计算 DataWorks
dataworks数据集成
dataworks数据集成
138 1
|
3月前
|
机器学习/深度学习 DataWorks 数据挖掘
基于阿里云Hologres和DataWorks数据集成的方案
基于阿里云Hologres和DataWorks数据集成的方案
80 7
|
4月前
|
SQL DataWorks 安全
DataWorks产品使用合集之调度资源组与集成资源内部的实例如何进行共用
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之公共集成资源组如何切换独享资源
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
1月前
|
XML 安全 Java
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
本文介绍了Java日志框架的基本概念和使用方法,重点讨论了SLF4J、Log4j、Logback和Log4j2之间的关系及其性能对比。SLF4J作为一个日志抽象层,允许开发者使用统一的日志接口,而Log4j、Logback和Log4j2则是具体的日志实现框架。Log4j2在性能上优于Logback,推荐在新项目中使用。文章还详细说明了如何在Spring Boot项目中配置Log4j2和Logback,以及如何使用Lombok简化日志记录。最后,提供了一些日志配置的最佳实践,包括滚动日志、统一日志格式和提高日志性能的方法。
281 30
【日志框架整合】Slf4j、Log4j、Log4j2、Logback配置模板
|
9天前
|
监控 安全 Apache
什么是Apache日志?为什么Apache日志分析很重要?
Apache是全球广泛使用的Web服务器软件,支持超过30%的活跃网站。它通过接收和处理HTTP请求,与后端服务器通信,返回响应并记录日志,确保网页请求的快速准确处理。Apache日志分为访问日志和错误日志,对提升用户体验、保障安全及优化性能至关重要。EventLog Analyzer等工具可有效管理和分析这些日志,增强Web服务的安全性和可靠性。

热门文章

最新文章

相关产品

  • 大数据开发治理平台 DataWorks
  • 下一篇
    DataWorks