ODPS JOB logview 查看方法

简介:

概述

Logview是一个在ODPS Job提交后查看和Debug任务的工具。可看到的内容有:

  • 任务的运行状态
  • 任务的运行结果
  • 任务的细节和每个步骤的进度

在用odpscmd提交任务时,会自动生成Logview的链接。生成的链接中的最后一部分是token,这是用户打开该页面并查看job信息的钥匙,Logview页面的有效期为一周。

 

Logview配置

 

注意调用odps cli 客户端时配置logview host

测试环境

project_name=odps_smoke_xxx
access_id=xxxxxxxxxxxxxxxxxxxxx
access_key=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
log_view_host= http://logview.xxxxxt.com:9000
tunnel_endpoint= http://dt.cxxxxxt-it.com

生产环境

实例名称:ypd_dat_xxx
AccessKey:xxxxxxxxxx
AccessSecret:xxxxxxxxxxxxxxxxx
project_name=ypd_dat_xxx
log_view_host= http://10.12.3.62:9000

客户端任务执行例子

登录统一验证机,执行查询命令

简单查询只会及时返回信息

使用函数会触发MR过程

root@ydt-acp-dcp01:/home/admin #odpscmd -e "select count(*) from report;"

ID = 20170321025448540g69z705
Log view:
http://logview.cnxxxxxxt-it.com:9000/logview/?h=http://service.cxxxxxt-it.com/api&p=cloud_report&i=20170321025448540g69z705&token=RDdlRGhQVEdLa3RuUXI3aDBmRExYR05jS29RPSxPRFBTX09CTzoxNjEzNjM1MTMxMDMwODQzLDE0OTA2Njk2ODgseyJTdGF0ZW1lbnQiOlt7IkFjdGlvbiI6WyJvZHBzOlJlYWQiXSwiRWZmZWN0IjoiQWxsb3ciLCJSZXNvdXJjZSI6WyJhY3M6b2RwczoqOnByb2plY3RzL2Nsb3VkX3JlcG9ydC9pbnN0YW5jZXMvMjAxNzAzMjEwMjU0NDg1NDBnNjl6NzA1Il19XSwiVmVyc2lvbiI6IjEifQ==
Summary:
resource cost: cpu 0.00 Core * Min, memory 0.00 GB * Min
inputs:
cloud_report.report: 0 (0 bytes)
outputs:
Job run time: 0.000
Job run mode: service job
M1_Stg1:
instance count: 1
run time: 0.000
instance time:
min: 0.000, max: 0.000, avg: 0.000
input records:
input: 0 (min: 0, max: 0, avg: 0)
output records:
R2_1_Stg1: 1 (min: 1, max: 1, avg: 1)
R2_1_Stg1:
instance count: 1
run time: 0.000
instance time:
min: 0.000, max: 0.000, avg: 0.000
input records:
input: 1 (min: 1, max: 1, avg: 1)
output records:
R2_1_Stg1FS_4108230: 1 (min: 1, max: 1, avg: 1)

+------------+
| _c0 |
+------------+
| 0 |
+------------+
root@ydt-acp-dcp01:/home/admin #

查看logview分析页面

下面结合具体的 UI界面来说明每个组件的含义。

登录上述客户端运行后返回的logview地址

image2017-3-21%2013%3A56%3A30.png?versio

在Logview的首页,上方为用户提交的SQL生成的ODPS Instance,每个SQL提交后会生成唯一的ID。Latency指的运行总共消耗的时间,别的页面的latency含义类似。 下方是该task的说明,其中的两项说明一下:

  • Result: 在Job运行结束后,可以看到运行结果,如一条select SQL的结果如下图。


  • Detail: 在Job中运行中和结束后,均可以点击Detail来查看任务运行的具体情况。
  • 点击上图result 右边的 detail

image2017-3-21%2013%3A57%3A13.png?versio

一个ODPS Task由一个或者多个Fuxi Job组成。例如当用户的SQL任务十分复杂时,ODPS会向Fuxi提交多个Fuxi Job。

每个Fuxi Job由一个或者多个Fuxi Task组成。简单的MapReduce通常会产生两个Fuxi Task,一个是Map一个是Reduce,用户会见到两个Fuxi Task的名字分别为M1和R2,当SQL比较复杂时,可能会产生多个Fuxi Task。

在每个Task中,可以看到Task的名字,对于M1_stg1,表示这是一个Map task,stage为1。R2_1_stg1中间的1表示它依赖M1执行结束才能开始执行。同理,J5_2_4_Stg2表示Join5这个阶段要依赖R2和M4两个task完全成才能启动运行。I/O Records表示这个task的输入和输出的records数。
每个Fuxi Task由一个或者多个Fuxi Instance组成,当用户的输入数据量变大时,ODPS会在每个Task启动更多的节点来处理数据。每个节点就是一个Fuxi Instance。双击Fuxi Task最右边一栏查看,或者直接双击该行,就可以打开具体的Fuxi Instance信息。
image2017-3-22%2015%3A53%3A36.png?versio

在页面的下方,Logview为不同阶段的Instance进行了分组,查看出错的节点可以选择Failed栏。

在StdOut和StdErr两栏中,可以查看标准输出和标准错误信息,用户自己打印的信息也可以在这里查看。

问题排查

出错的任务

当有任务出错时,用户可以在Logview页面的Result中看到错误的提示信息,也可以在Detail页面中通过Fuxi Instance的stderr查看具体某个Instance出错的信息。

数据倾斜 运行缓慢有时是由于在某个Fuxi Task的所有Fuxi Instance中,有个别Instance形成长尾造成,长尾的现象就是同一个Task内任务分配不均。这时可以在任务运行完后在Summay标签页中看运行结果。在每个Task中都可以看到形如这样的输出:

output records:
R2_1_Stg1: 199998999  (min: 22552459, max: 177446540, avg: 99999499)

在这里如果看到min和max相差很大,就说明在这一阶段出现了数据倾斜,比如在Join时某个字段中有一个值出现的比例很高,在这一字段上做Join就会出现数据倾斜。

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
SQL 分布式计算 DataWorks
dataworks常见问题之一直显示job RUNNING状态如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
36 4
|
10月前
|
存储 数据采集 SQL
大数据数据采集的数据迁移(同步/传输)的Sqoop之基本命令和使用的job作业
在大数据领域中,Sqoop是一款非常流行的数据迁移工具。它可以将关系型数据库中的数据快速地移动到Hadoop生态系统中,方便我们进行更深入的分析和处理。本文将介绍Sqoop的基本命令及如何使用Sqoop来创建和运行job作业,希望能够为大家提供一些参考和帮助。
105 0
|
SQL 运维 Oracle
【大数据开发运维解决方案】sqoop避免输入密码自动增量job脚本介绍
上一篇文章介绍了sqoop增量同步数据到hive,同时上一篇文章也给出了本人写的hadoop+hive+hbase+sqoop+kylin的伪分布式安装方法及使用和增量同步实现的连接, 本篇文章将介绍如何将上一篇文章介绍的增量方式同sqoop自带的job机制和shell脚本以及crontab结合起来实现自动增量同步的需求。
【大数据开发运维解决方案】sqoop避免输入密码自动增量job脚本介绍
|
Web App开发 分布式计算 数据可视化
MaxCompute Studio使用心得系列4——可视化查看所有job并分析运行情况
“通过`show p -all;`命令查看所有执行过的job,再通过`wait instanceid;`查看这个job的logview,最后通过logview再查看具体的执行日志。” 这样的方式查看所有job并分析运行情况实在太麻烦,MaxCompute Studio已经可以轻松完成了。
5755 0
|
2月前
|
分布式计算 DataWorks IDE
MaxCompute数据问题之忽略脏数据如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
47 0
|
2月前
|
SQL 存储 分布式计算
MaxCompute问题之下载数据如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
38 0
|
2月前
|
分布式计算 关系型数据库 MySQL
MaxCompute问题之数据归属分区如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
35 0
|
2月前
|
分布式计算 DataWorks BI
MaxCompute数据问题之运行报错如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
38 1
|
2月前
|
分布式计算 关系型数据库 数据库连接
MaxCompute数据问题之数据迁移如何解决
MaxCompute数据包含存储在MaxCompute服务中的表、分区以及其他数据结构;本合集将提供MaxCompute数据的管理和优化指南,以及数据操作中的常见问题和解决策略。
33 0

热门文章

最新文章