DataWorks运行日志参数解读

本文涉及的产品
DataWorks Serverless资源组免费试用套餐,300CU*H 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 参数

生产环境的运维中心>周期实例>选中DAG图中失败的实例右键查看运行日志

image.png

根据日志文末初步查看报错信息,未解决可进入运行诊断

image.png

运行诊断官方文档链接

日志参数解读

 INFO Start execute shell on node sh-base-biz-gatewayXX.cloud.etXX.  //执行调度任务的机器
 INFO CALC_ENGINE_IDENTIFIER=odps_demo_XX:  //当前执行计算引擎的名字
 INFO SKYNET_PARAVALUE=bizdate=202004XX:  //调度配置中的参数,解析出来的值
 INFO SKYNET_TASKID=70703315XX:  //实例ID
 INFO SKYNET_ID=7000032111XX:  //节点id
 INFO SKYNET_JOBID=7001190381XX:  //JobID
 INFO SKYNET_NODENAME=tmp_tb3_sql:  //节点名字
 INFO SKYNET_DSC_JOB_VERSION=1:  //节点版本,节点更新一次,版本+1
 INFO SKYNET_TIMEZONE=GMT+8:  //时区 这里为东八区
 INFO SKYNET_SOURCENAME=group_28378948471XXXX:  //调度资源组名
 INFO SKYNET_SYSTEM_ENV=prod:  //dev开发环境  prod生产环境
 INFO SKYNET_GMTDATE=202004XX:  //当前日期,格式为yyyymmdd。补数据时传入的是业务日期+1
 INFO SKYNET_BIZDATE=202004XX:  //实例业务日期,格式为yyyymmdd
 INFO SKYNET_CYCTIME=202004020009XX:  //实例的定时运行时间,格式为yyyymmddhh24miss
 INFO SKYNET_APP_ID=1160XX:  //项目ID
 INFO SKYNET_APPNAME=onaliyun_workshXX:  //项目名
 INFO SKYNET_RERUN_TIME=0:  //重跑次数
 INFO SKYNET_REGION=cn-shanghai:  //Region
 INFO ALISA_TASK_EXEC_TARGET=group_28378948471XXXX:  //调度任务资源组
 INFO ALISA_TASK_PRIORITY=1:  //调度优先级 值越大优先级越高取值[1,3,5,7,8]
Log view:  //每一句sql提交到MaxCompute后产生的执行日志 节点中有多句sql就会有多个logview
http://logview.odps.aliyun.com/logview/?h=http://service.odps.aliyun.com/api&p......
inputs:
    onaliyun_workshXX.tmp_tb2/dt=20200401: 2 (531 bytes)  //读表的数据量
outputs:
    onaliyun_workshXX.tmp_tb3/dt_3=20200401: 2 (531 bytes)  //写表的数据量

根据参数解决问题思路案例:

以inputs/outputs参数为例:

问题:实例运行成功,但是目的表分区为空。

insert到A表2020801分区,实例已经执行成功,但是select语句查询的时候发现A表20200801分区数据为空。

解决:

  1. 查看日志中该insert语句下面的第一个outputs参数,看表、分区、数据量是否符合需求?

    • 符合,多半是查询验证的时候查错表或分区了,建议从outputs这里完整复制下来再查询。
    • 不符合,见2。
  2. 查看日志中该insert语句下面的第一个inputs参数,看读取的表数量以及分区数据是否符合需求?

    • 符合,没有数据基本是因为sql本身把数据过滤掉了。
    • 不符合,inputs中少表或者少数据,说明调度上少挂了依赖,或者挂错了依赖,该sql执行的时候业务上真实需要的上游表还未产出。
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标  通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群  企业数据仓库开发人员  大数据平台开发人员  数据分析师  大数据运维人员  对于大数据平台、数据中台产品感兴趣的开发者
相关文章
|
23天前
|
分布式计算 DataWorks 监控
DataWorks产品使用合集之怎么设置参数获取上个月最后一天
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
24天前
|
运维 分布式计算 DataWorks
DataWorks产品使用合集之运维中心中的运行日志可以保留多久
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
11天前
|
数据库 Java 监控
Struts 2 日志管理化身神秘魔法师,洞察应用运行乾坤,演绎奇幻篇章!
【8月更文挑战第31天】在软件开发中,了解应用运行状况至关重要。日志管理作为 Struts 2 应用的关键组件,记录着每个动作和决策,如同监控摄像头,帮助我们迅速定位问题、分析性能和使用情况,为优化提供依据。Struts 2 支持多种日志框架(如 Log4j、Logback),便于配置日志级别、格式和输出位置。通过在 Action 类中添加日志记录,我们能在开发过程中获取详细信息,及时发现并解决问题。合理配置日志不仅有助于调试,还能分析用户行为,提升应用性能和稳定性。
28 0
|
23天前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之怎么使用工作空间参数
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
23天前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之怎么把开发环境的任务调度运行到生产环境
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
24天前
|
分布式计算 DataWorks Java
DataWorks产品使用合集之如何引用在spark jar中引用密文的空间参数
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
24天前
|
数据采集 SQL 运维
DataWorks产品使用合集之运维中心的详细日志是一直wait,是什么原因
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
24天前
|
分布式计算 DataWorks 安全
DataWorks产品使用合集之如何使用工作空间参数
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
24天前
|
分布式计算 DataWorks 安全
DataWorks产品使用合集之如何通过API终止运行的流程
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
24天前
|
SQL DataWorks 安全
DataWorks产品使用合集之如何实现在参数里面配置获取运行的时间
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。

热门文章

最新文章

  • 1
    DataWorks操作报错合集之DataWorks任务异常 报错: GET_GROUP_SLOT_EXCEPTION 该怎么处理
    68
  • 2
    DataWorks操作报错合集之DataWorksUDF 报错:evaluate for user defined function xxx cannot be loaded from any resources,该怎么处理
    77
  • 3
    DataWorks操作报错合集之在DataWorks中,任务流在调度时间到达时停止运行,是什么原因导致的
    84
  • 4
    DataWorks操作报错合集之DataWorks ODPS数据同步后,timesramp遇到时区问题,解决方法是什么
    62
  • 5
    DataWorks操作报错合集之DataWorks配置参数在开发环境进行调度,参数解析不出来,收到了 "Table does not exist" 的错误,该怎么处理
    64
  • 6
    DataWorks操作报错合集之DataWorks中udf开发完后,本地和在MaxCompute的工作区可以执行函数查询,但是在datawork里报错FAILED: ODPS-0130071:[2,5],是什么原因
    65
  • 7
    DataWorks操作报错合集之DataWorks提交失败: 提交节点的源码内容到TSP(代码库)失败:"skynet_packageid is null,该怎么解决
    84
  • 8
    DataWorks操作报错合集之DataWorks在同步mysql时报错Code:[Framework-02],mysql里面有个json类型字段,是什么原因导致的
    108
  • 9
    DataWorks操作报错合集之DataWorks集成实例绑定到同一个vpc下面,也添加了RDS的IP白名单报错:数据源配置有误,请检查,该怎么处理
    64
  • 10
    DataWorks操作报错合集之在 DataWorks 中运行了一个 Hologres 表的任务并完成了执行,但是在 Hologres 表中没有看到数据,该怎么解决
    72