开发者社区> 阴转多云转晴> 正文
阿里云
为了无法计算的价值
打开APP
阿里云APP内打开

阿里云大数据产品Dataworks2.0问题排查思路

简介: 1.数据同步不支持数据包含换行符n2.PAI节点可以支持TenSorFlow。3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。
+关注继续查看

1.数据同步不支持数据包含换行符n
2.PAI节点可以支持TenSorFlow。
3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。
4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。
5.与其他关联产品比如ODPS、PAI是和项目空间确认绑定关系的。必须创建dataworks时来配置。
6.赋值节点中是不支持使用python代码执行SQL的
7.提交任务成功后10分钟之前生成的实例都是空跑设置为成功的。之后生成的实例应该是可以正常运行的,如果还是无法正常运行,可以重新发布一下任务。
8.不支持节点任务完成数据的保存之后,通知本地系统做出响应。
9.要使用dataworks的Stream Studio必须开通实时计算
10.sqlscript:一次编译,odpssql:是逐条编译
11.目前没有组合节点的概念(dataworks1.0的),想要依赖多个节点组成的模块,直接依赖其最后一个节点就可以。
12.pyodps 节点不要通过迭代的方式来处理数据,再上传,这个是单机,没有利用到 MaxCompute 的能力,应当用 PyODPS DataFrame 或者 SQL 来处理数据
13.数据同步的时候,如果是非分区表,需要把调度中的参数去掉,否则自动运行的时候会报错Code:[OdpsWriter-31], Description:[分区配置错误.].
14.ECS自建MySQL,配置安全组,即可测试连通性
15.查询以后的下载导致字符串类型的“00001”变成了1,是Excel导致的,目前官方没有推荐的Excel版本
16.自定义资源需要能够通过公网,汇报心跳给dataworks,如果在相同区域,是可以的。不需要内网地址,但需要开下dataworks白名单或者放行0.0.0.0/0
17.测试环境的数据同步到生产环境:insert into table 生产环境.表名 select 1,2,3 from 测试环境.表名;
18.不同账号之间的数据同步可以使用备份功能。
19.数据集成的时候源数据库故障重试3次,每次间隔2分钟。不支持自定义时间间隔。
20.运维中心的周期任务解冻以后,已经被冻结的周期实例是不计入未运行的实例的
21.不是告警负责人收到告警,检查下报警接收人 个人信息界面是不是有邮件和手机号,是不是配置了 ;子账号没有配置手机信息,就会按照https://notifications.console.aliyun.com 里面,基本接收管理类目下,产品新功能上线或功能下线通知子类里配置的接收人去发送。
22.如果在odps节点使用set命令可能会报错“提交任务失败”,可以改用odpscmd客户端操作。或者set后面跟一个select操作(dataworks不支持set类的session操作,odpscmd可以的)
dataworks操作set例子:
///
SET LABEL 2 TO TABLE test_label(key, value);
SELECT 1;
23.自定义资源组grep -i 'killed process' /var/log/messages 查看下是否有oom的日志,如果有并且不是专业版本那么就需要考虑将部分任务考虑放到默认资源,或者降低任务并发
24.用 pyodps dataframe 应当避免任何循环,不然性能就是不太好的
25.不支持数据集成写入外部表。跟源端是什么类型无关。主要是目标端如果是外部表,则写入会报错。
26.不同主账号的项目进行数据迁移,建议通过数据集成配置不同账号下的数据源。
27.使用shell调用sql,请注意 accessid 、accesskey 和 endpoint 的替换,详细调用方法如下: /opt/taobao/tbdpapp/odpswrapper/odpsconsole/bin/odpscmd -u accessid -p accesskey --project=testproject --endpoint=http://service.odps.aliyun.com/api -e "sql"
28.同步多个分区

    读取数据所在的分区信息,支持linux shell通配符,包括 * 表示0个或多个字符,?代表任意一个字符。
    例如:现在有分区表 test,其存在 pt=1,ds=hangzhou pt=1,ds=shanghai pt=2,ds=hangzhou pt=2,ds=beijing 四个分区
    * 如果你想读取 pt=1,ds=shanghai 这个分区的数据,那么你应该配置为: "partition":["pt=1,ds=shanghai"];
    * 如果你想读取 pt=1下的所有分区,那么你应该配置为: "partition":["pt=1,ds=* "];
    * 如果你想读取整个 test 表的所有分区的数据,那么你应该配置为: "partition":["pt=*,ds=*"];
    * 如果需要按条件过滤,可以配置 "partition":["/*query*/ pt>=20190101 and pt<20190110"],表示同步pt分区大于等于20190101且小于20190110的所有数据

29.数据服务API查询慢,可以看入参,是否有分区列。如果有,连接串需要加 preferQueryMode=simple
30.冒烟测试是根据当前的设置进行的。
如果调度配置的是00:xx,会出现2019092500(如果配置的是yyyymmddhh24)
如果调度配置的是10:xx,会出现2019092510(如果配置的是yyyymmddhh24)
31.API网关报错:后端API调用失败,请检查服务、网络或者参数等信息...
仅从报错信息来看,应该是后端请求负责过高导致,这个可能和当前请求返回的结果太多有关。这个数据服务本身就是在公测阶段,没法保证每次请求都能正常反馈的,对于这种偶尔的错误,建议程序端适当加一下retry逻辑。
32.后付费实例数超出了每天的最大限制com.alibaba.phoenix.error.BillException: 后付费实例数超出了每天的最大限制
可以优先考虑是否存在欠费情况
33.HBASE同步:
目前使用默认资源组的话,虽然配置公网的zk地址,但无法保证所有的存储都能公网连通。
所以建议使用自定义资源组(自己购买ecs后添加到dataworks)或独享资源组(直接在dataworks购买)。
34.Redis数据源不支持同步到指的具体的Redis库
35.经典网络ECS上自建的数据源,建议使用数据集成自定义资源组,不保证默认资源组网络可通。文档上目前没有说明。
36.DataWorks商业化后,自定义资源组也都商业化了。
可以确认一下需要那种资源组,然后购买相对应的版本:
https://help.aliyun.com/document_detail/118789.html?spm=a2c4g.11174283.6.583.64f62b65sXdQGk
如果是上海的“自定义调度资源组 ”,购买企业版后续联系产品开通(提工单)

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
阿里云大数据ACP(一)大数据开发平台 DataWorks 1
阿里云大数据ACP(一)大数据开发平台 DataWorks 1
173 0
媒体声音 | 阿里云王伟民:阿里云数据库的策略与思考
DTCC 2021大会上,阿里云数据库事业部 产品与解决方案部总经理 王伟民(花名:唯敏)发表主题演讲《云原生数据库2.0,一站式全链路数据管理与服务》并接受IT168企业级&ITPUB执行总编 老鱼 专题采访。
131 0
媒体声音 | 阿里云王伟民:阿里云数据库的策略与思考
DTCC 2021大会上,阿里云数据库事业部 产品与解决方案部总经理 王伟民(花名:唯敏)发表主题演讲《云原生数据库2.0,一站式全链路数据管理与服务》,并接受IT168企业级&ITPUB执行总编 老鱼 专题采访,本文内容就现场采访整理而成。
438 0
《阿里云飞天大数据平台 DataWorks 前端技术解密:工作流调度可视化》(脱敏版本)
## ![image.png](https://intranetproxy.alipay.com/skylark/lark/0/2021/png/13481/1614773723538-e8d99a86-b04d-47bb-86ad-90cdb07ac657.png#height=220&id=QQWI7&margin=%5Bobject%20Object%5D&name=image.png&or
194 0
坚信大数据的变革力量——对话阿里云 MVP田亮
我和田亮的交流耗时较久,甚至用上了他出差的所有碎片时间,而他的回答始终谨慎、认真、高效。历任搜狐、阿里巴巴、新浪微博,10年如一日始终深耕大数据领域,阿里云 MVP田亮能在百舸争流中成为大数据和人工智能领域的佼佼者,似乎也就不奇怪了。
1883 0
云上一指禅:大数据产品DataWorks每日问答
每天,阿里巴巴集团数万名数据/算法开发工程师正在使用DataWorks,承载阿里巴巴集团99%数据业务构建。
1073 0
阿里云大数据产品开放搜索(opensearch)常见问题总结及排查思路
在使用大数据产品开放搜索(opensearch)过程中难免会遇到问题,我把踩过的坑总结了下,给需要的人看下。不定时更新中......
2659 0
一个合格的阿里云大数据程序员要学习哪些技术,才算合格的
项目有大年夜大年夜有小,越大年夜大年夜的项目触及到常识点也就越多;2019年将是这些领域取得长足进步的一年。我是一个大数据程序员,建了一个大数据资源共享群199427210 每天分享大数据学习资料和学习方法 ,让我们在2019年一起成长.
1572 0
下一代智能数据工厂,阿里云发布全新DataWorks
大数据的开发能力已经成为企业的核心竞争力之一, 企业对数据资产的管理、加工、利用的诉求也越来越强烈。 9月5日,阿里云发布了DataWorks V2版本, 可提升数据开发的效率并简化数据操作,为企业提供了安全可靠的一站式大数据智能云研发平台。
3553 0
+关注
阴转多云转晴
小白一枚
11
文章
0
问答
文章排行榜
最热
最新
相关电子书
更多
低代码开发师(初级)实战教程
立即下载
阿里巴巴DevOps 最佳实践手册
立即下载
冬季实战营第三期:MySQL数据库进阶实战
立即下载