MaxCompute操作报错合集之遇到报错:"Transaction size exceeds the limit",该怎么办

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。

问题一:大数据计算MaxCompute 为啥这条SQL无法执行呢?

大数据计算MaxCompute 中SELECT '123456' RLIKE '^(-|+)?\d+(.\d+)?SQLFAILED:ODPS0130071:[0,0]Semanticanalysisexceptionphysicalplangenerationfailed:java.lang.RuntimeException:SQLRuntimeUnretryableError:ODPS0121011:InvalidregularexpressionpatterninfunctionRLIKE,regularexpressioncallfailed,errormessage:nothingtorepeat,erroroffsetinpatternis4,thepatternis(|+)?d+(.d+)?' 为啥这条SQL无法执行呢 报错是FAILED: ODPS-0130071:[0,0] Semantic analysis exception - physical plan generation failed: java.lang.RuntimeException: SQL Runtime Unretryable Error: ODPS-0121011:Invalid regular expression pattern - in function RLIKE, regular expression call failed, error message:'nothing to repeat', error offset in pattern is 4, the pattern is ^(-|+)?d+(.d+)?, please check regular expression pattern 多次检查过正则表达式了,没问题呀,想匹配 +8 -8 +8.8 -8.8 也就是匹配正数、负数、和小数


参考回答:

在MaxCompute里正则表达式的模式中出现的 \ 都要进行二次转义。可以参考下文档:https://help.aliyun.com/zh/maxcompute/user-guide/maxcompute-regular-expressions?spm=a2c4g.11186623.0.i57#d4125f81cceth


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/603315


问题二:请教下大数据计算MaxCompute,我想在pyodps里执行SQL,应该是用什么办法?

请教下大数据计算MaxCompute,我想在pyodps里执行SQL,然后遍历SQL结果的每一行数据,进行操作,应该是用什么办法?


参考回答:

参考文档看下。

https://pyodps.readthedocs.io/zh-cn/latest/base-sql.html


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/603258


问题三:DataWorks接上游一张表,每天增量更新存csv文件至oss,历史的列少就会报错,有方法解决么?

DataWorks接上游一张表,每天增量更新存csv文件至oss,再通过外部表方式读数据进maxcompute,现在上游表增加字段,我离线同步节点也增加字段依然存文件至oss,这时候如果外部表也增加字段,读取历史及当前所有oss文件进来,历史的列少就会报错,有方法解决么?

还是历史oss文件都不能用了,只能按目前所有字段全量再抽一次进来?


参考回答:

有方法解决该问题,无需重新全量抽取数据

当上游表增加字段后,相应的离线同步节点和外部表都需要进行更新以反映这些变更。对于已经存储在OSS的历史CSV文件,如果直接读取进MaxCompute而没有对外部表做相应的字段增加,的确会因为历史文件缺少新加字段而导致报错。为了解决这个问题,您可以采取以下步骤:

  1. 更新外部表定义:您需要在MaxCompute中更新对应外部表的定义,添加新的字段。这样新的字段会在读取CSV文件时被识别。
  2. 使用赋值节点处理历史数据:对于已有的历史OSS文件,可以通过DataWorks的赋值节点来为缺失的字段赋予默认值或标记。这样,即使历史数据中没有新字段的数据,也能保证数据类型一致,从而避免报错。
  3. 补数据功能:如果需要将历史增量数据同步至目标表对应时间分区,可以使用运维中心的补数据功能,这允许您针对特定的时间段补充数据。
  4. 配置重置位点:如果您需要修改同步任务的配置,可以在暂停任务时记下任务暂停的时间,然后重启任务时配置这个“重置位点”,使实时同步任务从重置位点向后同步数据,避免重复消费之前的数据。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/602635


问题四:大数据计算MaxCompute这个是什么错误吗?

大数据计算MaxCompute这个是什么错误吗?

FAILED: ODPS-0110061: Failed to run ddltask -

Modify DDL meta encounter exception : ODPS-0010000:System internal error -

Metastore processing exception - Batch modify failed. ots2.0 processing error because of

[Message]:batchWriteRow partially failed,

one of its errors:

Transaction size exceeds the limit.RowSize:2785.TotalSize:4195749.Limit:4194304.,

[RequestId]:00061274-7593-770d-aac4-ca0b87266e51, [TraceId]:null, [HttpStatus:]0 (

Inner exception: batchWriteRow partially failed, one of its errors:

Transaction size exceeds the limit.RowSize:2785.TotalSize:4195749.Limit:4194304.)


参考回答:

根据提供的错误信息,这是一个MaxCompute(阿里云大数据计算服务)的错误。错误代码为ODPS-0110061,表示在运行DDL任务时遇到了问题。具体的错误信息是"Transaction size exceeds the limit",即事务大小超过了限制。

根据错误信息中的详细信息,可以看出出现了一个批量写入行操作失败的情况。其中一个错误是事务大小超过了限制。RowSize表示单个行的大小为2785字节,TotalSize表示总大小为4195749字节,而Limit表示限制为4194304字节。

这个错误通常发生在进行大量数据写入操作时,超过了MaxCompute的事务大小限制。为了解决这个问题,你可以考虑以下几种方法:

  1. 减小每次写入的数据量:将大批量的数据拆分成更小的部分进行写入,以符合事务大小的限制。
  2. 增加事务大小限制:如果你有权限,可以尝试增加MaxCompute的事务大小限制,以满足你的数据写入需求。
  3. 优化数据结构:检查你的数据结构是否合理,是否存在冗余或不必要的字段,可以通过优化数据结构来减少每个行的大小。

请注意,具体的解决方法可能因实际情况而异,你需要根据你的具体情况和需求来选择适合的解决方案。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/601334


问题五:请教下大数据计算MaxCompute相关问题?

请教下大数据计算MaxCompute相关问题?想从A表的分区,往B表的分区克隆数据,A和B的结构一样我的写法是: clone table 项目生产环境.A表 partition (dt ='20240225') to 项目测试环境.B表 partition (dt ='20240226') if exists overwrite;


参考回答:

你的写法是正确的,可以按照以下方式从A表的分区克隆数据到B表的分区:

clone table 项目生产环境.A表 partition (dt ='20240225') to 项目测试环境.B表 partition (dt ='20240226') if exists overwrite;

这条语句将会将A表中日期为'20240225'的分区数据克隆到B表中日期为'20240226'的分区中。如果B表中已经存在相同分区,则会覆盖原有数据。

请确保在执行该语句之前,A表和B表的结构是相同的,并且你具有足够的权限来执行此操作。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/601331

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2月前
|
分布式计算 DataWorks 调度
oss数据同步maxcompute报错
在使用阿里云DataWorks同步OSS数据至MaxCompute时,遇到“Input is not in the .gz format”的报错。问题源于目标目录中存在一个空文件,导致同步时识别错误。
|
4月前
|
SQL 分布式计算 MaxCompute
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
|
3月前
|
分布式计算 DataWorks 数据管理
DataWorks操作报错合集之写入ODPS目的表时遇到脏数据报错,该怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
3月前
|
分布式计算 DataWorks NoSQL
DataWorks操作报错合集之遇到报错:failed: ODPS-0130071:[1,36] Semantic analysis exception,该怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
103 0
|
3月前
|
SQL 分布式计算 DataWorks
DataWorks操作报错合集之如何解决datax同步任务时报错ODPS-0410042:Invalid signature value
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
3月前
|
分布式计算 DataWorks 关系型数据库
DataWorks操作报错合集之新建MAXComputer数据源时,如何解决报错ODPS-0420095: Access Denied
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
4月前
|
分布式计算 资源调度 DataWorks
MaxCompute操作报错合集之出现“查询运行日志失败”的报错,一般是什么导致的
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
20天前
|
存储 机器学习/深度学习 分布式计算
大数据技术——解锁数据的力量,引领未来趋势
【10月更文挑战第5天】大数据技术——解锁数据的力量,引领未来趋势
|
21天前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
43 3
|
5天前
|
SQL 存储 大数据
大数据中数据提取
【10月更文挑战第19天】
13 2

相关产品

  • 云原生大数据计算服务 MaxCompute