MaxCompute操作报错合集之遇到报错:"Transaction size exceeds the limit",该怎么办

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。

问题一:大数据计算MaxCompute 为啥这条SQL无法执行呢?

大数据计算MaxCompute 中SELECT '123456' RLIKE '^(-|+)?\d+(.\d+)?SQLFAILED:ODPS0130071:[0,0]Semanticanalysisexceptionphysicalplangenerationfailed:java.lang.RuntimeException:SQLRuntimeUnretryableError:ODPS0121011:InvalidregularexpressionpatterninfunctionRLIKE,regularexpressioncallfailed,errormessage:nothingtorepeat,erroroffsetinpatternis4,thepatternis(|+)?d+(.d+)?' 为啥这条SQL无法执行呢 报错是FAILED: ODPS-0130071:[0,0] Semantic analysis exception - physical plan generation failed: java.lang.RuntimeException: SQL Runtime Unretryable Error: ODPS-0121011:Invalid regular expression pattern - in function RLIKE, regular expression call failed, error message:'nothing to repeat', error offset in pattern is 4, the pattern is ^(-|+)?d+(.d+)?, please check regular expression pattern 多次检查过正则表达式了,没问题呀,想匹配 +8 -8 +8.8 -8.8 也就是匹配正数、负数、和小数


参考回答:

在MaxCompute里正则表达式的模式中出现的 \ 都要进行二次转义。可以参考下文档:https://help.aliyun.com/zh/maxcompute/user-guide/maxcompute-regular-expressions?spm=a2c4g.11186623.0.i57#d4125f81cceth


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/603315


问题二:请教下大数据计算MaxCompute,我想在pyodps里执行SQL,应该是用什么办法?

请教下大数据计算MaxCompute,我想在pyodps里执行SQL,然后遍历SQL结果的每一行数据,进行操作,应该是用什么办法?


参考回答:

参考文档看下。

https://pyodps.readthedocs.io/zh-cn/latest/base-sql.html


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/603258


问题三:DataWorks接上游一张表,每天增量更新存csv文件至oss,历史的列少就会报错,有方法解决么?

DataWorks接上游一张表,每天增量更新存csv文件至oss,再通过外部表方式读数据进maxcompute,现在上游表增加字段,我离线同步节点也增加字段依然存文件至oss,这时候如果外部表也增加字段,读取历史及当前所有oss文件进来,历史的列少就会报错,有方法解决么?

还是历史oss文件都不能用了,只能按目前所有字段全量再抽一次进来?


参考回答:

有方法解决该问题,无需重新全量抽取数据

当上游表增加字段后,相应的离线同步节点和外部表都需要进行更新以反映这些变更。对于已经存储在OSS的历史CSV文件,如果直接读取进MaxCompute而没有对外部表做相应的字段增加,的确会因为历史文件缺少新加字段而导致报错。为了解决这个问题,您可以采取以下步骤:

  1. 更新外部表定义:您需要在MaxCompute中更新对应外部表的定义,添加新的字段。这样新的字段会在读取CSV文件时被识别。
  2. 使用赋值节点处理历史数据:对于已有的历史OSS文件,可以通过DataWorks的赋值节点来为缺失的字段赋予默认值或标记。这样,即使历史数据中没有新字段的数据,也能保证数据类型一致,从而避免报错。
  3. 补数据功能:如果需要将历史增量数据同步至目标表对应时间分区,可以使用运维中心的补数据功能,这允许您针对特定的时间段补充数据。
  4. 配置重置位点:如果您需要修改同步任务的配置,可以在暂停任务时记下任务暂停的时间,然后重启任务时配置这个“重置位点”,使实时同步任务从重置位点向后同步数据,避免重复消费之前的数据。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/602635


问题四:大数据计算MaxCompute这个是什么错误吗?

大数据计算MaxCompute这个是什么错误吗?

FAILED: ODPS-0110061: Failed to run ddltask -

Modify DDL meta encounter exception : ODPS-0010000:System internal error -

Metastore processing exception - Batch modify failed. ots2.0 processing error because of

[Message]:batchWriteRow partially failed,

one of its errors:

Transaction size exceeds the limit.RowSize:2785.TotalSize:4195749.Limit:4194304.,

[RequestId]:00061274-7593-770d-aac4-ca0b87266e51, [TraceId]:null, [HttpStatus:]0 (

Inner exception: batchWriteRow partially failed, one of its errors:

Transaction size exceeds the limit.RowSize:2785.TotalSize:4195749.Limit:4194304.)


参考回答:

根据提供的错误信息,这是一个MaxCompute(阿里云大数据计算服务)的错误。错误代码为ODPS-0110061,表示在运行DDL任务时遇到了问题。具体的错误信息是"Transaction size exceeds the limit",即事务大小超过了限制。

根据错误信息中的详细信息,可以看出出现了一个批量写入行操作失败的情况。其中一个错误是事务大小超过了限制。RowSize表示单个行的大小为2785字节,TotalSize表示总大小为4195749字节,而Limit表示限制为4194304字节。

这个错误通常发生在进行大量数据写入操作时,超过了MaxCompute的事务大小限制。为了解决这个问题,你可以考虑以下几种方法:

  1. 减小每次写入的数据量:将大批量的数据拆分成更小的部分进行写入,以符合事务大小的限制。
  2. 增加事务大小限制:如果你有权限,可以尝试增加MaxCompute的事务大小限制,以满足你的数据写入需求。
  3. 优化数据结构:检查你的数据结构是否合理,是否存在冗余或不必要的字段,可以通过优化数据结构来减少每个行的大小。

请注意,具体的解决方法可能因实际情况而异,你需要根据你的具体情况和需求来选择适合的解决方案。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/601334


问题五:请教下大数据计算MaxCompute相关问题?

请教下大数据计算MaxCompute相关问题?想从A表的分区,往B表的分区克隆数据,A和B的结构一样我的写法是: clone table 项目生产环境.A表 partition (dt ='20240225') to 项目测试环境.B表 partition (dt ='20240226') if exists overwrite;


参考回答:

你的写法是正确的,可以按照以下方式从A表的分区克隆数据到B表的分区:

clone table 项目生产环境.A表 partition (dt ='20240225') to 项目测试环境.B表 partition (dt ='20240226') if exists overwrite;

这条语句将会将A表中日期为'20240225'的分区数据克隆到B表中日期为'20240226'的分区中。如果B表中已经存在相同分区,则会覆盖原有数据。

请确保在执行该语句之前,A表和B表的结构是相同的,并且你具有足够的权限来执行此操作。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/601331

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
4天前
|
SQL 分布式计算 大数据
MaxCompute产品使用问题之已经执行了整库同步操作,想要进行逆向操作,该怎么操作
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
分布式计算 DataWorks MaxCompute
MaxCompute操作报错合集之在Spark访问OSS时出现证书错误的问题,该如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
4天前
|
分布式计算 大数据 数据处理
MaxCompute操作报错合集之出现无法在 information_schema.TASKS_HISTORY 表中查询到特定类型的 DI 上线任务记录,该怎么办
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
4天前
|
SQL 分布式计算 大数据
MaxCompute操作报错合集之遇到报错"ODPS-0130071:[1,8] Semantic analysis exception - class Ssf for user defined function ansy_xx cannot be loaded from any resources",该怎么办
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
4天前
|
分布式计算 大数据 关系型数据库
MaxCompute产品使用问题之如何查看数据离线同步每天从MySQL抽取的数据量
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
分布式计算 大数据 Java
MaxCompute产品使用问题之是否可以恢复最近两天生命周期清理的数据
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
机器学习/深度学习 分布式计算 大数据
MaxCompute产品使用问题之删除了某个分区的数据,如何找回
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
分布式计算 DataWorks 大数据
MaxCompute产品使用问题之表数据大于1w行,如何下载数据
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
数据采集 分布式计算 DataWorks
MaxCompute产品使用问题之如何确保数据完整性验证有效
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
4天前
|
SQL 分布式计算 DataWorks
MaxCompute产品使用问题之dts是否支持传输数据到mc主键表2.0
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。

相关产品

  • 云原生大数据计算服务 MaxCompute