阿里云大数据产品Dataworks2.0问题排查思路

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
简介: 1.数据同步不支持数据包含换行符n2.PAI节点可以支持TenSorFlow。3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。

1.数据同步不支持数据包含换行符n
2.PAI节点可以支持TenSorFlow。
3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。
4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。
5.与其他关联产品比如ODPS、PAI是和项目空间确认绑定关系的。必须创建dataworks时来配置。
6.赋值节点中是不支持使用python代码执行SQL的
7.提交任务成功后10分钟之前生成的实例都是空跑设置为成功的。之后生成的实例应该是可以正常运行的,如果还是无法正常运行,可以重新发布一下任务。
8.不支持节点任务完成数据的保存之后,通知本地系统做出响应。
9.要使用dataworks的Stream Studio必须开通实时计算
10.sqlscript:一次编译,odpssql:是逐条编译
11.目前没有组合节点的概念(dataworks1.0的),想要依赖多个节点组成的模块,直接依赖其最后一个节点就可以。
12.pyodps 节点不要通过迭代的方式来处理数据,再上传,这个是单机,没有利用到 MaxCompute 的能力,应当用 PyODPS DataFrame 或者 SQL 来处理数据
13.数据同步的时候,如果是非分区表,需要把调度中的参数去掉,否则自动运行的时候会报错Code:[OdpsWriter-31], Description:[分区配置错误.].
14.ECS自建MySQL,配置安全组,即可测试连通性
15.查询以后的下载导致字符串类型的“00001”变成了1,是Excel导致的,目前官方没有推荐的Excel版本
16.自定义资源需要能够通过公网,汇报心跳给dataworks,如果在相同区域,是可以的。不需要内网地址,但需要开下dataworks白名单或者放行0.0.0.0/0
17.测试环境的数据同步到生产环境:insert into table 生产环境.表名 select 1,2,3 from 测试环境.表名;
18.不同账号之间的数据同步可以使用备份功能。
19.数据集成的时候源数据库故障重试3次,每次间隔2分钟。不支持自定义时间间隔。
20.运维中心的周期任务解冻以后,已经被冻结的周期实例是不计入未运行的实例的
21.不是告警负责人收到告警,检查下报警接收人 个人信息界面是不是有邮件和手机号,是不是配置了 ;子账号没有配置手机信息,就会按照https://notifications.console.aliyun.com 里面,基本接收管理类目下,产品新功能上线或功能下线通知子类里配置的接收人去发送。
22.如果在odps节点使用set命令可能会报错“提交任务失败”,可以改用odpscmd客户端操作。或者set后面跟一个select操作(dataworks不支持set类的session操作,odpscmd可以的)
dataworks操作set例子:
///
SET LABEL 2 TO TABLE test_label(key, value);
SELECT 1;
23.自定义资源组grep -i 'killed process' /var/log/messages 查看下是否有oom的日志,如果有并且不是专业版本那么就需要考虑将部分任务考虑放到默认资源,或者降低任务并发
24.用 pyodps dataframe 应当避免任何循环,不然性能就是不太好的
25.不支持数据集成写入外部表。跟源端是什么类型无关。主要是目标端如果是外部表,则写入会报错。
26.不同主账号的项目进行数据迁移,建议通过数据集成配置不同账号下的数据源。
27.使用shell调用sql,请注意 accessid 、accesskey 和 endpoint 的替换,详细调用方法如下: /opt/taobao/tbdpapp/odpswrapper/odpsconsole/bin/odpscmd -u accessid -p accesskey --project=testproject --endpoint=http://service.odps.aliyun.com/api -e "sql"
28.同步多个分区

    读取数据所在的分区信息,支持linux shell通配符,包括 * 表示0个或多个字符,?代表任意一个字符。
    例如:现在有分区表 test,其存在 pt=1,ds=hangzhou pt=1,ds=shanghai pt=2,ds=hangzhou pt=2,ds=beijing 四个分区
    * 如果你想读取 pt=1,ds=shanghai 这个分区的数据,那么你应该配置为: "partition":["pt=1,ds=shanghai"];
    * 如果你想读取 pt=1下的所有分区,那么你应该配置为: "partition":["pt=1,ds=* "];
    * 如果你想读取整个 test 表的所有分区的数据,那么你应该配置为: "partition":["pt=*,ds=*"];
    * 如果需要按条件过滤,可以配置 "partition":["/*query*/ pt>=20190101 and pt<20190110"],表示同步pt分区大于等于20190101且小于20190110的所有数据

29.数据服务API查询慢,可以看入参,是否有分区列。如果有,连接串需要加 preferQueryMode=simple
30.冒烟测试是根据当前的设置进行的。
如果调度配置的是00:xx,会出现2019092500(如果配置的是yyyymmddhh24)
如果调度配置的是10:xx,会出现2019092510(如果配置的是yyyymmddhh24)
31.API网关报错:后端API调用失败,请检查服务、网络或者参数等信息...
仅从报错信息来看,应该是后端请求负责过高导致,这个可能和当前请求返回的结果太多有关。这个数据服务本身就是在公测阶段,没法保证每次请求都能正常反馈的,对于这种偶尔的错误,建议程序端适当加一下retry逻辑。
32.后付费实例数超出了每天的最大限制com.alibaba.phoenix.error.BillException: 后付费实例数超出了每天的最大限制
可以优先考虑是否存在欠费情况
33.HBASE同步:
目前使用默认资源组的话,虽然配置公网的zk地址,但无法保证所有的存储都能公网连通。
所以建议使用自定义资源组(自己购买ecs后添加到dataworks)或独享资源组(直接在dataworks购买)。
34.Redis数据源不支持同步到指的具体的Redis库
35.经典网络ECS上自建的数据源,建议使用数据集成自定义资源组,不保证默认资源组网络可通。文档上目前没有说明。
36.DataWorks商业化后,自定义资源组也都商业化了。
可以确认一下需要那种资源组,然后购买相对应的版本:
https://help.aliyun.com/document_detail/118789.html?spm=a2c4g.11174283.6.583.64f62b65sXdQGk
如果是上海的“自定义调度资源组 ”,购买企业版后续联系产品开通(提工单)

相关文章
|
7天前
|
存储 人工智能 数据管理
|
6天前
|
机器学习/深度学习 分布式计算 数据挖掘
MaxFrame 性能评测:阿里云MaxCompute上的分布式Pandas引擎
MaxFrame是一款兼容Pandas API的分布式数据分析工具,基于MaxCompute平台,极大提升了大规模数据处理效率。其核心优势在于结合了Pandas的易用性和MaxCompute的分布式计算能力,无需学习新编程模型即可处理海量数据。性能测试显示,在涉及`groupby`和`merge`等复杂操作时,MaxFrame相比本地Pandas有显著性能提升,最高可达9倍。适用于大规模数据分析、数据清洗、预处理及机器学习特征工程等场景。尽管存在网络延迟和资源消耗等问题,MaxFrame仍是处理TB级甚至PB级数据的理想选择。
30 4
|
14天前
|
SQL DataWorks 数据可视化
阿里云DataWorks评测:大数据开发治理平台的卓越表现
阿里云DataWorks是一款集数据集成、开发、分析与管理于一体的大数据平台,支持多种数据源无缝整合,提供可视化ETL工具和灵活的任务调度机制。其内置的安全体系和丰富的插件生态,确保了数据处理的高效性和安全性。通过实际测试,DataWorks展现了强大的计算能力和稳定性,适用于中小企业快速搭建稳定高效的BI系统。未来,DataWorks将继续优化功能,降低使用门槛,并推出更多灵活的定价方案,助力企业实现数据价值最大化。
|
9天前
|
SQL 存储 分布式计算
阿里云 Paimon + MaxCompute 极速体验
Paimon 和 MaxCompute 的对接经历了长期优化,解决了以往性能不足的问题。通过半年紧密合作,双方团队专门提升了 Paimon 在 MaxCompute 上的读写性能。主要改进包括:采用 Arrow 接口减少数据转换开销,内置 Paimon SDK 提升启动速度,实现原生读写能力,减少中间拷贝与转换,显著降低 CPU 开销与延迟。经过双十一实战验证,Paimon 表的读写速度已接近 MaxCompute 内表,远超传统外表。欢迎体验!
|
14天前
|
分布式计算 DataWorks 搜索推荐
DataWorks产品评测:大数据开发治理平台的最佳实践与体验
DataWorks是阿里云推出的一款大数据开发治理平台,集成了多种大数据引擎,支持数据集成、开发、分析和任务调度。本文通过用户画像分析的最佳实践,评测了DataWorks的功能和使用体验,并提出了优化建议。通过实践,DataWorks在数据整合、清洗及可视化方面表现出色,适合企业高效管理和分析数据。
68 0
|
5天前
|
SQL DataWorks 大数据
DataWorks产品体验测评
一文带你了解DataWorks大数据开发治理平台的优与劣
74 10
|
12天前
|
数据采集 人工智能 DataWorks
DataWorks产品最佳实践测评
DataWorks产品最佳实践测评
|
30天前
|
SQL DataWorks 数据可视化
DataWorks产品体验与评测
在当今数字化时代,数据处理的重要性不言而喻。DataWorks作为一款数据开发治理平台,在数据处理领域占据着重要的地位。通过对DataWorks产品的体验使用,我们可以深入了解其功能、优势以及存在的问题,并且与其他数据处理工具进行对比,从而为企业、工作或学习中的数据处理提供有价值的参考。
50 6
DataWorks产品体验与评测
|
24天前
|
SQL DataWorks 搜索推荐
DataWorks产品评测与最佳实践体验报告
DataWorks是阿里巴巴云推出的一款高效数据处理平台,通过内置的数据集成工具和ETL功能,实现了多源数据的自动化处理与分析。本文介绍了DataWorks在用户画像分析中的应用实践,展示了其如何帮助企业高效管理数据资源,支持决策制定及营销优化。同时,文章还评测了DataWorks的产品体验,包括开通流程、功能满足度等方面,并与其它数据开发平台进行了比较,突出了DataWorks在易用性、性能和生态完整性上的优势。最后,对Data Studio新版本中的Notebook环境进行了初步探索,强调了其在提升开发效率方面的价值。
59 16
|
18天前
|
SQL 分布式计算 DataWorks
DataWorks产品测评|基于DataWorks和MaxCompute产品组合实现用户画像分析
本文介绍了如何使用DataWorks和MaxCompute产品组合实现用户画像分析。首先,通过阿里云官网开通DataWorks服务并创建资源组,接着创建MaxCompute项目和数据源。随后,利用DataWorks的数据集成和数据开发模块,将业务数据同步至MaxCompute,并通过ODPS SQL完成用户画像的数据加工,最终将结果写入`ads_user_info_1d`表。文章详细记录了每一步的操作过程,包括任务开发、运行、运维操作和资源释放,帮助读者顺利完成用户画像分析。此外,还指出了文档中的一些不一致之处,并提供了相应的解决方法。