问题一:在机器学习PAI中alink可以在hadoop3的yarn集群环境中运行吗?
"alink可以在hadoop3的yarn集群环境中运行吗? 我看pom文件里面配置的都是2.8.0"
参考回答:
从技术上讲,Alibaba的alink可以在Hadoop 3的YARN集群环境中运行,但需要将它的依赖项配置为Hadoop 3。根据我的了解,当前Alink 2.3版本支持Hadoop 3。因此,您需要在您的项目中更新Alink的版本并将其所需的依赖项更改为Hadoop 3。
如果您按照pom文件中的配置加载alink并运行,在不进行任何更改的情况下,alink将不兼容Hadoop 3环境,并且您可能会遇到与Classpath和API版本不兼容等问题。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/507116?spm=5176.8068049.0.0.77566d1989YhJO
问题二:请问useRemoteEnv()方法在机器学习PAI中可以解析域名嘛还是必需用ip?
请问useRemoteEnv()方法可以解析域名嘛还是必需用ip?
参考回答:
你机器能 ping 到那个 hostname,那基本就没问题。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/507115?spm=5176.8068049.0.0.77566d1989YhJO
问题三:请问1、2都完成第三步的jar包在机器学习PAI中去哪里寻找"
"
1、2都完成 第三步的jar包 去哪里寻找"
参考回答:
就是截图里的目录
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/507114?spm=5176.8068049.0.0.77566d1989YhJO
问题四:机器学习PAI在这个镜像中或以找到GPU,export出一个镜像, 然后镜像就会出问题, 什么原因?
机器学习PAI在这个镜像中或以找到GPU, registry.cn-shanghai.aliyuncs.com/myjktest/deeprec:deeprec2302-gpu-py38-cu116-ubuntu20.04-hupu, 但是这个镜像太大, 我将bazel cache 删除了, export出一个镜像, 然后那个镜像就会出问题, 这是什么原因呢?
参考回答:
如果用来release的镜像,最好是以base镜像安装whl的流程,dev镜像里安装了太多东西,不适合直接作为上线跑任务使用的镜像 如果用来release的镜像,最好是以base镜像安装whl的流程,dev镜像里安装了太多东西,不适合直接作为上线跑任务使用的镜像
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/507102?spm=5176.8068049.0.0.77566d1989YhJO
问题五:机器学习PAI看是在那个阶段出现的pb限制问题,这种情况下原始的pb应该就超过的2GB?
机器学习PAI看是在那个阶段出现的pb限制问题,新版本的bladedisc应该只有在tf圈图后导出子图编译时会使用pb,bladedisc编译完成后结果不会用pb来存储。这种情况下原始的pb应该就超过的2GB?(如果子图就超过了的话),一种可能的workaround方式时不freeze graph,这样const就不会被编译。另外老版本的bladedisc会使用pb来存储一部分编译后的结果,这个也会有可能超过2GB的限制,如果是这个问题,升级bladedisc应该可以解决。这个定位到是有一个input维度很大,超过了2g的限制,这个有好的处理方式吗?原生tf跑是没问题的
参考回答:
根据您提供的信息,这个问题可能出现在将 Tensorflow 圈图后导出的子图编译时使用 pb 文件来存储的阶段,而且可能是因为某个输入维度很大,超过了 2GB 的限制导致的。如果是这种情况,可以考虑以下一些解决方法:
不进行 Freeze Graph:如您所述,不进行 Freeze Graph 操作可以避免编译时将 const 存储到 pb 文件中,从而避免出现超出 2GB 限制的问题。不过这个方法可能会带来一些性能上的损失,需要根据具体情况进行评估。
修改输入维度:如果某个输入维度太大,超出了 2GB 限制,可以考虑缩小该维度的大小,或者使用更高效的数据结构来存储输入数据,如 sparse tensor。
使用分布式计算:如果单机无法处理大型模型和数据,可以考虑使用分布式计算。Tensorflow 提供了多种分布式计算方案,如 Horovod 和 TensorFlow Distribute。
升级 Bladedisc:如果使用的是老版本的 Bladedisc,可能会出现在编译时将结果存储到 pb 文件中的问题。可以尝试升级到新的版本,或者使用其他的编译方式,如预编译或 JIT 编译。
需要注意的是,以上方法可能会带来一些性能和复杂度上的损失,需要根据具体情况进行评估和选择。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/506106?spm=5176.8068049.0.0.77566d1989YhJO