开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

在大数据计算MaxCompute中,请问出现以下代码一般是什么原因?

在大数据计算MaxCompute中,请问出现以下代码一般是什么原因?
2024-08-12 19:21:08 M1_job_0:1/0/1[RUNNING]
FAILED: ODPS-0123131: Fuxi job failed - {
"ClassName": "ExceptionBase",
"File": "/home/admin/odps_build/workspace/IRDS_CMK_7u/jenkins-IRDS_CMK_7u-8265/task/sql_task/execution_engine/utils/jni_helpers.cpp",
"Function": "static void apsara::odps::execution_engine::JNIHelper::CheckException()",
"Line": 284,
"Message": "SQL Runtime Error: ODPS-0123131:User defined function exception - Traceback:\njava.lang.OutOfMemoryError: Java heap space\n\tat org.apache.hadoop.io.compress.BlockDecompressorStream.getCompressedData(BlockDecompressorStream.java:123)\n\tat org.apache.hadoop.io.compress.BlockDecompressorStream.decompress(BlockDecompressorStream.java:98)\n\tat org.apache.hadoop.io.compress.DecompressorStream.read(DecompressorStream.java:85)\n\tat java.io.InputStream.read(InputStream.java:101)\n\tat org.apache.hadoop.util.LineReader.fillBuffer(LineReader.java:180)\n\tat org.apache.hadoop.util.LineReader.readDefaultLine(LineReader.java:216)\n\tat org.apache.hadoop.util.LineReader.readLine(LineReader.java:174)\n\ta...[525 bytes omitted]
2024-08-12 19:21:13 INFO =================================================================

展开
收起
我睡觉不困 2024-08-16 12:48:35 49 0
1 条回答
写回答
取消 提交回答
  • 报错ODPS-0123131通常表示MaxCompute中的用户定义函数(UDF)出现了异常。在这个具体的例子中,错误信息显示是Java heap space,即Java堆内存溢出。这通常是因为任务在运行时消耗了超过分配的内存资源。为解决此问题,可以尝试增加任务的内存分配,比如设置odps.stage.mapper.mem和odps.stage.mapper.jvm.mem参数。请参考文档设置任务内存参数来调整配置。

    2024-08-16 14:22:12
    赞同 10 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 相关电子书

    更多
    Data+AI时代大数据平台应该如何建设 立即下载
    大数据AI一体化的解读 立即下载
    极氪大数据 Serverless 应用实践 立即下载