开发者社区 > 大数据与机器学习 > 人工智能平台PAI > 正文

机器学习PAI看是在那个阶段出现的pb限制问题,这种情况下原始的pb应该就超过的2GB?

机器学习PAI看是在那个阶段出现的pb限制问题,新版本的bladedisc应该只有在tf圈图后导出子图编译时会使用pb,bladedisc编译完成后结果不会用pb来存储。这种情况下原始的pb应该就超过的2GB?(如果子图就超过了的话),一种可能的workaround方式时不freeze graph,这样const就不会被编译。另外老版本的bladedisc会使用pb来存储一部分编译后的结果,这个也会有可能超过2GB的限制,如果是这个问题,升级bladedisc应该可以解决。这个定位到是有一个input维度很大,超过了2g的限制,这个有好的处理方式吗?原生tf跑是没问题的

展开
收起
冰激凌甜筒 2023-05-02 22:01:59 232 0
1 条回答
写回答
取消 提交回答
  • 随心分享,欢迎友善交流讨论:)

    根据您提供的信息,这个问题可能出现在将 Tensorflow 圈图后导出的子图编译时使用 pb 文件来存储的阶段,而且可能是因为某个输入维度很大,超过了 2GB 的限制导致的。如果是这种情况,可以考虑以下一些解决方法:

    不进行 Freeze Graph:如您所述,不进行 Freeze Graph 操作可以避免编译时将 const 存储到 pb 文件中,从而避免出现超出 2GB 限制的问题。不过这个方法可能会带来一些性能上的损失,需要根据具体情况进行评估。

    修改输入维度:如果某个输入维度太大,超出了 2GB 限制,可以考虑缩小该维度的大小,或者使用更高效的数据结构来存储输入数据,如 sparse tensor。

    使用分布式计算:如果单机无法处理大型模型和数据,可以考虑使用分布式计算。Tensorflow 提供了多种分布式计算方案,如 Horovod 和 TensorFlow Distribute。

    升级 Bladedisc:如果使用的是老版本的 Bladedisc,可能会出现在编译时将结果存储到 pb 文件中的问题。可以尝试升级到新的版本,或者使用其他的编译方式,如预编译或 JIT 编译。

    需要注意的是,以上方法可能会带来一些性能和复杂度上的损失,需要根据具体情况进行评估和选择。

    2023-05-05 11:50:00
    赞同 展开评论 打赏

人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。

相关产品

  • 人工智能平台 PAI
  • 热门讨论

    热门文章

    相关电子书

    更多
    大规模机器学习在蚂蚁+阿里的应用 立即下载
    阿里巴巴机器学习平台AI 立即下载
    微博机器学习平台架构和实践 立即下载