开发者社区 > 大数据与机器学习 > 大数据计算 MaxCompute > 正文

MaxCompute设置每个Reduce Worker的内存大小。这样设置?有参考案例吗?

1.MaxCompute设置每个Reduce Worker的内存大小。我有32g数据,每个是1024,应该执行起来是32个左右的Reduce数量,odps.stage.reducer.mem:1024MB 这样设置?有参考案例吗?
lQLPJwqi4BE-kbZFzQT-sBn-1-us24rfBD8rtm8AsgA_1278_69.png 22376df1ca9a25c97bdd6d65030f3036.png 所以还是1024 2.那我如何设置,让其自动reduce num的数量和数据集大小有一定的比例,比如1g数据大小一个reduce并发,手动设置不太合理

展开
收起
冰激凌甜筒 2023-04-30 21:02:21 104 0
1 条回答
写回答
取消 提交回答
  • 1.我这边确认了下,odps.stage.reducer.mem这个参数和reduce端的并发没有关系,是单并发申请的内存。所以我理解log view上显示的并发数跟odps.stage.reducer.mem参数的设置没有关系 2. 这个底层是根据上游fuxi instance数量,及sql逻辑,自动划分并发数的,我理解是没办法设置,我问下。 此回答整理自钉群“MaxCompute开发者社区2群”

    2023-04-30 21:40:19
    赞同 展开评论 打赏

MaxCompute(原ODPS)是一项面向分析的大数据计算服务,它以Serverless架构提供快速、全托管的在线数据仓库服务,消除传统数据平台在资源扩展性和弹性方面的限制,最小化用户运维投入,使您经济并高效的分析处理海量数据。

相关产品

  • 云原生大数据计算服务 MaxCompute
  • 热门讨论

    热门文章

    相关电子书

    更多
    大数据AI一体化的解读 立即下载
    极氪大数据 Serverless 应用实践 立即下载
    大数据&AI实战派 第2期 立即下载