开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

大数据计算MaxCompute这是什么问题?

大数据计算MaxCompute这是什么问题?failed: ODPS-0110061: Failed to run ddltask - Modify DDL meta encounter exception : ODPS-0010000:System internal error - Metastore processing exception - Batch modify failed. ots2.0 processing error because of [ErrorCode]:OTSOutOfTransactionDataSizeLimit, [Message]:batchWriteRow partially failed, one of its errors: Transaction size exceeds the limit.RowSize:2804.TotalSize:4194614.Limit:4194304., [RequestId]:00061273-f0b1-fc5d-e623-150a6577b849, [TraceId]:null, [HttpStatus:]0 (Inner exception: batchWriteRow partially failed, one of its errors: Transaction size exceeds the limit.RowSize:2804.TotalSize:4194614.Limit:4194304.)

展开
收起
真的很搞笑 2024-03-04 10:38:06 50 0
2 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    这个问题是由于MaxCompute的事务数据大小限制导致的。在执行批量写入操作时,事务的总大小超过了限制。具体来说,单个行的大小为2804字节,总大小为4194614字节,而限制为4194304字节。

    要解决这个问题,您可以尝试以下方法:

    1. 减小单行数据的大小:检查您的数据模型和业务需求,看是否可以通过减少某些字段的大小或优化数据结构来减小单行数据的大小。
    2. 增加事务数据大小限制:如果您确实需要处理大量数据,可以考虑与阿里云技术支持联系,申请增加事务数据大小限制。请注意,这可能需要额外的费用和资源投入。
    3. 分批处理数据:将数据分成较小的批次进行处理,以适应当前的事务数据大小限制。这可以通过编写自定义脚本或使用MaxCompute提供的内置函数来实现。
    2024-03-04 13:40:26
    赞同 1 展开评论 打赏
  • 初步排查是动态分区作业对大批量的分区写入或删除分区的操作会遇到元数据服务请求大小的限制会失败。昨天凌晨已经调整限制后止血。 ,此回答整理自钉群“MaxCompute开发者社区2群”

    2024-03-04 10:58:21
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 热门讨论

    热门文章

    相关电子书

    更多
    Data+AI时代大数据平台应该如何建设 立即下载
    大数据AI一体化的解读 立即下载
    极氪大数据 Serverless 应用实践 立即下载