阿里云大数据产品Dataworks2.0问题排查思路

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 1.数据同步不支持数据包含换行符n2.PAI节点可以支持TenSorFlow。3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。

1.数据同步不支持数据包含换行符n
2.PAI节点可以支持TenSorFlow。
3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。
4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。
5.与其他关联产品比如ODPS、PAI是和项目空间确认绑定关系的。必须创建dataworks时来配置。
6.赋值节点中是不支持使用python代码执行SQL的
7.提交任务成功后10分钟之前生成的实例都是空跑设置为成功的。之后生成的实例应该是可以正常运行的,如果还是无法正常运行,可以重新发布一下任务。
8.不支持节点任务完成数据的保存之后,通知本地系统做出响应。
9.要使用dataworks的Stream Studio必须开通实时计算
10.sqlscript:一次编译,odpssql:是逐条编译
11.目前没有组合节点的概念(dataworks1.0的),想要依赖多个节点组成的模块,直接依赖其最后一个节点就可以。
12.pyodps 节点不要通过迭代的方式来处理数据,再上传,这个是单机,没有利用到 MaxCompute 的能力,应当用 PyODPS DataFrame 或者 SQL 来处理数据
13.数据同步的时候,如果是非分区表,需要把调度中的参数去掉,否则自动运行的时候会报错Code:[OdpsWriter-31], Description:[分区配置错误.].
14.ECS自建MySQL,配置安全组,即可测试连通性
15.查询以后的下载导致字符串类型的“00001”变成了1,是Excel导致的,目前官方没有推荐的Excel版本
16.自定义资源需要能够通过公网,汇报心跳给dataworks,如果在相同区域,是可以的。不需要内网地址,但需要开下dataworks白名单或者放行0.0.0.0/0
17.测试环境的数据同步到生产环境:insert into table 生产环境.表名 select 1,2,3 from 测试环境.表名;
18.不同账号之间的数据同步可以使用备份功能。
19.数据集成的时候源数据库故障重试3次,每次间隔2分钟。不支持自定义时间间隔。
20.运维中心的周期任务解冻以后,已经被冻结的周期实例是不计入未运行的实例的
21.不是告警负责人收到告警,检查下报警接收人 个人信息界面是不是有邮件和手机号,是不是配置了 ;子账号没有配置手机信息,就会按照https://notifications.console.aliyun.com 里面,基本接收管理类目下,产品新功能上线或功能下线通知子类里配置的接收人去发送。
22.如果在odps节点使用set命令可能会报错“提交任务失败”,可以改用odpscmd客户端操作。或者set后面跟一个select操作(dataworks不支持set类的session操作,odpscmd可以的)
dataworks操作set例子:
///
SET LABEL 2 TO TABLE test_label(key, value);
SELECT 1;
23.自定义资源组grep -i 'killed process' /var/log/messages 查看下是否有oom的日志,如果有并且不是专业版本那么就需要考虑将部分任务考虑放到默认资源,或者降低任务并发
24.用 pyodps dataframe 应当避免任何循环,不然性能就是不太好的
25.不支持数据集成写入外部表。跟源端是什么类型无关。主要是目标端如果是外部表,则写入会报错。
26.不同主账号的项目进行数据迁移,建议通过数据集成配置不同账号下的数据源。
27.使用shell调用sql,请注意 accessid 、accesskey 和 endpoint 的替换,详细调用方法如下: /opt/taobao/tbdpapp/odpswrapper/odpsconsole/bin/odpscmd -u accessid -p accesskey --project=testproject --endpoint=http://service.odps.aliyun.com/api -e "sql"
28.同步多个分区

    读取数据所在的分区信息,支持linux shell通配符,包括 * 表示0个或多个字符,?代表任意一个字符。
    例如:现在有分区表 test,其存在 pt=1,ds=hangzhou pt=1,ds=shanghai pt=2,ds=hangzhou pt=2,ds=beijing 四个分区
    * 如果你想读取 pt=1,ds=shanghai 这个分区的数据,那么你应该配置为: "partition":["pt=1,ds=shanghai"];
    * 如果你想读取 pt=1下的所有分区,那么你应该配置为: "partition":["pt=1,ds=* "];
    * 如果你想读取整个 test 表的所有分区的数据,那么你应该配置为: "partition":["pt=*,ds=*"];
    * 如果需要按条件过滤,可以配置 "partition":["/*query*/ pt>=20190101 and pt<20190110"],表示同步pt分区大于等于20190101且小于20190110的所有数据

29.数据服务API查询慢,可以看入参,是否有分区列。如果有,连接串需要加 preferQueryMode=simple
30.冒烟测试是根据当前的设置进行的。
如果调度配置的是00:xx,会出现2019092500(如果配置的是yyyymmddhh24)
如果调度配置的是10:xx,会出现2019092510(如果配置的是yyyymmddhh24)
31.API网关报错:后端API调用失败,请检查服务、网络或者参数等信息...
仅从报错信息来看,应该是后端请求负责过高导致,这个可能和当前请求返回的结果太多有关。这个数据服务本身就是在公测阶段,没法保证每次请求都能正常反馈的,对于这种偶尔的错误,建议程序端适当加一下retry逻辑。
32.后付费实例数超出了每天的最大限制com.alibaba.phoenix.error.BillException: 后付费实例数超出了每天的最大限制
可以优先考虑是否存在欠费情况
33.HBASE同步:
目前使用默认资源组的话,虽然配置公网的zk地址,但无法保证所有的存储都能公网连通。
所以建议使用自定义资源组(自己购买ecs后添加到dataworks)或独享资源组(直接在dataworks购买)。
34.Redis数据源不支持同步到指的具体的Redis库
35.经典网络ECS上自建的数据源,建议使用数据集成自定义资源组,不保证默认资源组网络可通。文档上目前没有说明。
36.DataWorks商业化后,自定义资源组也都商业化了。
可以确认一下需要那种资源组,然后购买相对应的版本:
https://help.aliyun.com/document_detail/118789.html?spm=a2c4g.11174283.6.583.64f62b65sXdQGk
如果是上海的“自定义调度资源组 ”,购买企业版后续联系产品开通(提工单)

相关文章
|
15天前
|
人工智能 Cloud Native 数据管理
媒体声音|重磅升级,阿里云发布首个“Data+AI”驱动的一站式多模数据平台
在2024云栖大会上,阿里云瑶池数据库发布了首个一站式多模数据管理平台DMS:OneMeta+OneOps。该平台由Data+AI驱动,兼容40余种数据源,实现跨云数据库、数据仓库、数据湖的统一数据治理,帮助用户高效提取和分析元数据,提升业务决策效率10倍。DMS已服务超10万企业客户,降低数据管理成本高达90%。
|
17天前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
2月前
|
人工智能 分布式计算 DataWorks
连续四年!阿里云领跑中国公有云大数据平台
近日,国际数据公司(IDC)发布《中国大数据平台市场份额,2023:数智融合时代的真正到来》报告——2023年中国大数据平台公有云服务市场规模达72.2亿元人民币,其中阿里巴巴市场份额保持领先,占比达40.2%,连续四年排名第一。
204 12
|
2月前
|
SQL 人工智能 大数据
阿里云牵头起草!首个大数据批流融合国家标准发布
近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准由阿里云牵头起草,并将于2025年2月1日起正式实施。
86 7
|
2月前
|
SQL 人工智能 大数据
首个大数据批流融合国家标准正式发布,阿里云为牵头起草单位!
近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准 GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准由阿里云牵头起草,并将于2025年2月1日起正式实施。
|
1月前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
4天前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
50 7
|
4天前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
15 2
|
17天前
|
数据采集 监控 数据管理
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第26天】随着信息技术的发展,数据成为企业核心资源。本文探讨大数据平台的搭建与数据质量管理,包括选择合适架构、数据处理与分析能力、数据质量标准与监控机制、数据清洗与校验及元数据管理,为企业数据治理提供参考。
58 1
|
11天前
|
存储 大数据 定位技术
大数据 数据索引技术
【10月更文挑战第26天】
28 3

热门文章

最新文章

  • 1
    DataWorks操作报错合集之DataWorks任务异常 报错: GET_GROUP_SLOT_EXCEPTION 该怎么处理
    103
  • 2
    DataWorks操作报错合集之DataWorksUDF 报错:evaluate for user defined function xxx cannot be loaded from any resources,该怎么处理
    104
  • 3
    DataWorks操作报错合集之在DataWorks中,任务流在调度时间到达时停止运行,是什么原因导致的
    106
  • 4
    DataWorks操作报错合集之DataWorks ODPS数据同步后,timesramp遇到时区问题,解决方法是什么
    90
  • 5
    DataWorks操作报错合集之DataWorks配置参数在开发环境进行调度,参数解析不出来,收到了 "Table does not exist" 的错误,该怎么处理
    86
  • 6
    DataWorks操作报错合集之DataWorks中udf开发完后,本地和在MaxCompute的工作区可以执行函数查询,但是在datawork里报错FAILED: ODPS-0130071:[2,5],是什么原因
    100
  • 7
    DataWorks操作报错合集之DataWorks提交失败: 提交节点的源码内容到TSP(代码库)失败:"skynet_packageid is null,该怎么解决
    110
  • 8
    DataWorks操作报错合集之DataWorks在同步mysql时报错Code:[Framework-02],mysql里面有个json类型字段,是什么原因导致的
    148
  • 9
    DataWorks操作报错合集之DataWorks集成实例绑定到同一个vpc下面,也添加了RDS的IP白名单报错:数据源配置有误,请检查,该怎么处理
    84
  • 10
    DataWorks操作报错合集之在 DataWorks 中运行了一个 Hologres 表的任务并完成了执行,但是在 Hologres 表中没有看到数据,该怎么解决
    118