DataWorks运行日志参数解读

本文涉及的产品
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
日志服务 SLS,月写入数据量 50GB 1个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 参数

生产环境的运维中心>周期实例>选中DAG图中失败的实例右键查看运行日志

image.png

根据日志文末初步查看报错信息,未解决可进入运行诊断

image.png

运行诊断官方文档链接

日志参数解读

 INFO Start execute shell on node sh-base-biz-gatewayXX.cloud.etXX.  //执行调度任务的机器
 INFO CALC_ENGINE_IDENTIFIER=odps_demo_XX:  //当前执行计算引擎的名字
 INFO SKYNET_PARAVALUE=bizdate=202004XX:  //调度配置中的参数,解析出来的值
 INFO SKYNET_TASKID=70703315XX:  //实例ID
 INFO SKYNET_ID=7000032111XX:  //节点id
 INFO SKYNET_JOBID=7001190381XX:  //JobID
 INFO SKYNET_NODENAME=tmp_tb3_sql:  //节点名字
 INFO SKYNET_DSC_JOB_VERSION=1:  //节点版本,节点更新一次,版本+1
 INFO SKYNET_TIMEZONE=GMT+8:  //时区 这里为东八区
 INFO SKYNET_SOURCENAME=group_28378948471XXXX:  //调度资源组名
 INFO SKYNET_SYSTEM_ENV=prod:  //dev开发环境  prod生产环境
 INFO SKYNET_GMTDATE=202004XX:  //当前日期,格式为yyyymmdd。补数据时传入的是业务日期+1
 INFO SKYNET_BIZDATE=202004XX:  //实例业务日期,格式为yyyymmdd
 INFO SKYNET_CYCTIME=202004020009XX:  //实例的定时运行时间,格式为yyyymmddhh24miss
 INFO SKYNET_APP_ID=1160XX:  //项目ID
 INFO SKYNET_APPNAME=onaliyun_workshXX:  //项目名
 INFO SKYNET_RERUN_TIME=0:  //重跑次数
 INFO SKYNET_REGION=cn-shanghai:  //Region
 INFO ALISA_TASK_EXEC_TARGET=group_28378948471XXXX:  //调度任务资源组
 INFO ALISA_TASK_PRIORITY=1:  //调度优先级 值越大优先级越高取值[1,3,5,7,8]
Log view:  //每一句sql提交到MaxCompute后产生的执行日志 节点中有多句sql就会有多个logview
http://logview.odps.aliyun.com/logview/?h=http://service.odps.aliyun.com/api&p......
inputs:
    onaliyun_workshXX.tmp_tb2/dt=20200401: 2 (531 bytes)  //读表的数据量
outputs:
    onaliyun_workshXX.tmp_tb3/dt_3=20200401: 2 (531 bytes)  //写表的数据量

根据参数解决问题思路案例:

以inputs/outputs参数为例:

问题:实例运行成功,但是目的表分区为空。

insert到A表2020801分区,实例已经执行成功,但是select语句查询的时候发现A表20200801分区数据为空。

解决:

  1. 查看日志中该insert语句下面的第一个outputs参数,看表、分区、数据量是否符合需求?

    • 符合,多半是查询验证的时候查错表或分区了,建议从outputs这里完整复制下来再查询。
    • 不符合,见2。
  2. 查看日志中该insert语句下面的第一个inputs参数,看读取的表数量以及分区数据是否符合需求?

    • 符合,没有数据基本是因为sql本身把数据过滤掉了。
    • 不符合,inputs中少表或者少数据,说明调度上少挂了依赖,或者挂错了依赖,该sql执行的时候业务上真实需要的上游表还未产出。
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标  通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群  企业数据仓库开发人员  大数据平台开发人员  数据分析师  大数据运维人员  对于大数据平台、数据中台产品感兴趣的开发者
相关文章
|
18天前
|
存储 SQL 关系型数据库
【赵渝强老师】PostgreSQL的运行日志文件
PostgreSQL的物理存储结构包括数据文件、日志文件等。运行日志默认未开启,需配置`postgresql.conf`文件中的相关参数如`log_destination`、`log_directory`等,以记录数据库状态、错误信息等。示例配置中启用了CSV格式日志,便于管理和分析。通过创建表操作,可查看生成的日志文件,了解具体日志内容。
|
21天前
|
存储 Prometheus 监控
Docker容器内进行应用调试与故障排除的方法与技巧,包括使用日志、进入容器检查、利用监控工具及检查配置等,旨在帮助用户有效应对应用部署中的挑战,确保应用稳定运行
本文深入探讨了在Docker容器内进行应用调试与故障排除的方法与技巧,包括使用日志、进入容器检查、利用监控工具及检查配置等,旨在帮助用户有效应对应用部署中的挑战,确保应用稳定运行。
30 5
|
1月前
|
Oracle 关系型数据库 数据库
【赵渝强老师】Oracle的参数文件与告警日志文件
本文介绍了Oracle数据库的参数文件和告警日志文件。参数文件分为初始化参数文件(PFile)和服务器端参数文件(SPFile),在数据库启动时读取并分配资源。告警日志文件记录了数据库的重要活动、错误和警告信息,帮助诊断问题。文中还提供了相关视频讲解和示例代码。
|
2月前
|
Arthas 监控 Java
JVM知识体系学习七:了解JVM常用命令行参数、GC日志详解、调优三大方面(JVM规划和预调优、优化JVM环境、JVM运行出现的各种问题)、Arthas
这篇文章全面介绍了JVM的命令行参数、GC日志分析以及性能调优的各个方面,包括监控工具使用和实际案例分析。
68 3
|
4月前
|
分布式计算 DataWorks 监控
DataWorks产品使用合集之怎么设置参数获取上个月最后一天
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
数据库 Java 监控
Struts 2 日志管理化身神秘魔法师,洞察应用运行乾坤,演绎奇幻篇章!
【8月更文挑战第31天】在软件开发中,了解应用运行状况至关重要。日志管理作为 Struts 2 应用的关键组件,记录着每个动作和决策,如同监控摄像头,帮助我们迅速定位问题、分析性能和使用情况,为优化提供依据。Struts 2 支持多种日志框架(如 Log4j、Logback),便于配置日志级别、格式和输出位置。通过在 Action 类中添加日志记录,我们能在开发过程中获取详细信息,及时发现并解决问题。合理配置日志不仅有助于调试,还能分析用户行为,提升应用性能和稳定性。
65 0
|
4月前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之怎么使用工作空间参数
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
数据采集 DataWorks 监控
DataWorks产品使用合集之怎么把开发环境的任务调度运行到生产环境
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
分布式计算 DataWorks Java
DataWorks产品使用合集之如何引用在spark jar中引用密文的空间参数
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
数据采集 SQL 运维
DataWorks产品使用合集之运维中心的详细日志是一直wait,是什么原因
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
下一篇
DataWorks