阿里云大数据产品Dataworks2.0问题排查思路

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 1.数据同步不支持数据包含换行符n2.PAI节点可以支持TenSorFlow。3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。

1.数据同步不支持数据包含换行符n
2.PAI节点可以支持TenSorFlow。
3.遇到连通性通过,但是配置同步作业或运行时会有超时情况。这种情况通常自定义资源组来做同步。
4.正常调用正常但重跑报错报错ODPS-0130071,重新打开窗口重跑流程。
5.与其他关联产品比如ODPS、PAI是和项目空间确认绑定关系的。必须创建dataworks时来配置。
6.赋值节点中是不支持使用python代码执行SQL的
7.提交任务成功后10分钟之前生成的实例都是空跑设置为成功的。之后生成的实例应该是可以正常运行的,如果还是无法正常运行,可以重新发布一下任务。
8.不支持节点任务完成数据的保存之后,通知本地系统做出响应。
9.要使用dataworks的Stream Studio必须开通实时计算
10.sqlscript:一次编译,odpssql:是逐条编译
11.目前没有组合节点的概念(dataworks1.0的),想要依赖多个节点组成的模块,直接依赖其最后一个节点就可以。
12.pyodps 节点不要通过迭代的方式来处理数据,再上传,这个是单机,没有利用到 MaxCompute 的能力,应当用 PyODPS DataFrame 或者 SQL 来处理数据
13.数据同步的时候,如果是非分区表,需要把调度中的参数去掉,否则自动运行的时候会报错Code:[OdpsWriter-31], Description:[分区配置错误.].
14.ECS自建MySQL,配置安全组,即可测试连通性
15.查询以后的下载导致字符串类型的“00001”变成了1,是Excel导致的,目前官方没有推荐的Excel版本
16.自定义资源需要能够通过公网,汇报心跳给dataworks,如果在相同区域,是可以的。不需要内网地址,但需要开下dataworks白名单或者放行0.0.0.0/0
17.测试环境的数据同步到生产环境:insert into table 生产环境.表名 select 1,2,3 from 测试环境.表名;
18.不同账号之间的数据同步可以使用备份功能。
19.数据集成的时候源数据库故障重试3次,每次间隔2分钟。不支持自定义时间间隔。
20.运维中心的周期任务解冻以后,已经被冻结的周期实例是不计入未运行的实例的
21.不是告警负责人收到告警,检查下报警接收人 个人信息界面是不是有邮件和手机号,是不是配置了 ;子账号没有配置手机信息,就会按照https://notifications.console.aliyun.com 里面,基本接收管理类目下,产品新功能上线或功能下线通知子类里配置的接收人去发送。
22.如果在odps节点使用set命令可能会报错“提交任务失败”,可以改用odpscmd客户端操作。或者set后面跟一个select操作(dataworks不支持set类的session操作,odpscmd可以的)
dataworks操作set例子:
///
SET LABEL 2 TO TABLE test_label(key, value);
SELECT 1;
23.自定义资源组grep -i 'killed process' /var/log/messages 查看下是否有oom的日志,如果有并且不是专业版本那么就需要考虑将部分任务考虑放到默认资源,或者降低任务并发
24.用 pyodps dataframe 应当避免任何循环,不然性能就是不太好的
25.不支持数据集成写入外部表。跟源端是什么类型无关。主要是目标端如果是外部表,则写入会报错。
26.不同主账号的项目进行数据迁移,建议通过数据集成配置不同账号下的数据源。
27.使用shell调用sql,请注意 accessid 、accesskey 和 endpoint 的替换,详细调用方法如下: /opt/taobao/tbdpapp/odpswrapper/odpsconsole/bin/odpscmd -u accessid -p accesskey --project=testproject --endpoint=http://service.odps.aliyun.com/api -e "sql"
28.同步多个分区

    读取数据所在的分区信息,支持linux shell通配符,包括 * 表示0个或多个字符,?代表任意一个字符。
    例如:现在有分区表 test,其存在 pt=1,ds=hangzhou pt=1,ds=shanghai pt=2,ds=hangzhou pt=2,ds=beijing 四个分区
    * 如果你想读取 pt=1,ds=shanghai 这个分区的数据,那么你应该配置为: "partition":["pt=1,ds=shanghai"];
    * 如果你想读取 pt=1下的所有分区,那么你应该配置为: "partition":["pt=1,ds=* "];
    * 如果你想读取整个 test 表的所有分区的数据,那么你应该配置为: "partition":["pt=*,ds=*"];
    * 如果需要按条件过滤,可以配置 "partition":["/*query*/ pt>=20190101 and pt<20190110"],表示同步pt分区大于等于20190101且小于20190110的所有数据

29.数据服务API查询慢,可以看入参,是否有分区列。如果有,连接串需要加 preferQueryMode=simple
30.冒烟测试是根据当前的设置进行的。
如果调度配置的是00:xx,会出现2019092500(如果配置的是yyyymmddhh24)
如果调度配置的是10:xx,会出现2019092510(如果配置的是yyyymmddhh24)
31.API网关报错:后端API调用失败,请检查服务、网络或者参数等信息...
仅从报错信息来看,应该是后端请求负责过高导致,这个可能和当前请求返回的结果太多有关。这个数据服务本身就是在公测阶段,没法保证每次请求都能正常反馈的,对于这种偶尔的错误,建议程序端适当加一下retry逻辑。
32.后付费实例数超出了每天的最大限制com.alibaba.phoenix.error.BillException: 后付费实例数超出了每天的最大限制
可以优先考虑是否存在欠费情况
33.HBASE同步:
目前使用默认资源组的话,虽然配置公网的zk地址,但无法保证所有的存储都能公网连通。
所以建议使用自定义资源组(自己购买ecs后添加到dataworks)或独享资源组(直接在dataworks购买)。
34.Redis数据源不支持同步到指的具体的Redis库
35.经典网络ECS上自建的数据源,建议使用数据集成自定义资源组,不保证默认资源组网络可通。文档上目前没有说明。
36.DataWorks商业化后,自定义资源组也都商业化了。
可以确认一下需要那种资源组,然后购买相对应的版本:
https://help.aliyun.com/document_detail/118789.html?spm=a2c4g.11174283.6.583.64f62b65sXdQGk
如果是上海的“自定义调度资源组 ”,购买企业版后续联系产品开通(提工单)

相关文章
|
14天前
|
人工智能 Cloud Native 数据管理
媒体声音|重磅升级,阿里云发布首个“Data+AI”驱动的一站式多模数据平台
在2024云栖大会上,阿里云瑶池数据库发布了首个一站式多模数据管理平台DMS:OneMeta+OneOps。该平台由Data+AI驱动,兼容40余种数据源,实现跨云数据库、数据仓库、数据湖的统一数据治理,帮助用户高效提取和分析元数据,提升业务决策效率10倍。DMS已服务超10万企业客户,降低数据管理成本高达90%。
|
10天前
|
存储 人工智能 分布式计算
大数据& AI 产品月刊【2024年10月】
大数据& AI 产品技术月刊【2024年10月】,涵盖本月技术速递、产品和功能发布、市场和客户应用实践等内容,帮助您快速了解阿里云大数据& AI 方面最新动态。
|
16天前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
zdl
|
3天前
|
消息中间件 运维 大数据
大数据实时计算产品的对比测评:实时计算Flink版 VS 自建Flink集群
本文介绍了实时计算Flink版与自建Flink集群的对比,涵盖部署成本、性能表现、易用性和企业级能力等方面。实时计算Flink版作为全托管服务,显著降低了运维成本,提供了强大的集成能力和弹性扩展,特别适合中小型团队和业务波动大的场景。文中还提出了改进建议,并探讨了与其他产品的联动可能性。总结指出,实时计算Flink版在简化运维、降低成本和提升易用性方面表现出色,是大数据实时计算的优选方案。
zdl
19 0
|
1月前
|
人工智能 分布式计算 大数据
大数据&AI产品月刊【2024年9月】
大数据& AI 产品技术月刊【2024年9月】,涵盖本月技术速递、2024云栖大会实录、产品和功能发布、市场和客户应用实践等内容,帮助您快速了解阿里云大数据& AI 方面最新动态。
|
2月前
|
人工智能 分布式计算 DataWorks
连续四年!阿里云领跑中国公有云大数据平台
近日,国际数据公司(IDC)发布《中国大数据平台市场份额,2023:数智融合时代的真正到来》报告——2023年中国大数据平台公有云服务市场规模达72.2亿元人民币,其中阿里巴巴市场份额保持领先,占比达40.2%,连续四年排名第一。
200 12
|
25天前
|
Oracle 大数据 数据挖掘
企业内训|大数据产品运营实战培训-某电信运营商大数据产品研发中心
本课程是TsingtaoAI专为某电信运营商的大数据产品研发中心的产品支撑组设计,旨在深入探讨大数据在电信运营商领域的应用与运营策略。通过密集的培训,从数据的本质与价值出发,系统解析大数据工具和技术的最新进展,深入剖析行业内外的实践案例。课程涵盖如何理解和评估数据、如何有效运用大数据技术、以及如何在不同业务场景中实现数据的价值转化。
36 0
|
2月前
|
SQL 人工智能 大数据
首个大数据批流融合国家标准正式发布,阿里云为牵头起草单位!
近日,国家市场监督管理总局、国家标准化管理委员会正式发布大数据领域首个批流融合国家标准 GB/T 44216-2024《信息技术 大数据 批流融合计算技术要求》,该标准由阿里云牵头起草,并将于2025年2月1日起正式实施。
|
1月前
|
SQL 运维 大数据
大数据实时计算产品的对比测评
在使用多种Flink实时计算产品后,我发现Flink凭借其流批一体的优势,在实时数据处理领域表现出色。它不仅支持复杂的窗口机制与事件时间处理,还具备高效的数据吞吐能力和精准的状态管理,确保数据处理既快又准。此外,Flink提供了多样化的编程接口和运维工具,简化了开发流程,但在界面友好度上还有提升空间。针对企业级应用,Flink展现了高可用性和安全性,不过价格因素可能影响小型企业的采纳决策。未来可进一步优化文档和自动化调优工具,以提升用户体验。
115 0
|
1月前
|
SQL 存储 监控
大数据-161 Apache Kylin 构建Cube 按照日期、区域、产品、渠道 与 Cube 优化
大数据-161 Apache Kylin 构建Cube 按照日期、区域、产品、渠道 与 Cube 优化
49 0

热门文章

最新文章