问题一:机器学习PAI的Alink加载onnx模型和engine那个效率高呢?
Alink加载onnx模型和engine那个效率高呢
参考回答:
在比较 Alink 加载 ONNX 模型和 engine 引擎的效率时,需要考虑多个因素。下面是对两种方法的简要比较:
- Alink 加载 ONNX 模型:
- 优点:Alink 是阿里巴巴开源的机器学习平台,支持 ONNX 模型的加载和推理。Alink 提供了丰富的功能和工具,可以方便地进行模型预处理、特征工程以及解析 ONNX 模型等操作。
- 缺点:相对于专门为加速推理而设计的引擎,Alink 可能会有一些额外的开销和复杂性。此外,Alink 的性能也取决于所使用的硬件资源和配置。
- Engine 引擎:
- 优点:Engine 引擎是一种专门为加速推理任务而设计的解决方案。它通常利用硬件的特定功能和优化技术,如 GPU 或 FPGA,来实现高效的推理计算。Engine 引擎通常具有较低的延迟和更高的吞吐量。
- 缺点:Engine 引擎可能需要更多的配置和优化工作,以确保模型正确加载和高效执行。此外,使用 Engine 引擎可能需要额外的硬件资源和软件支持。
综上所述,如果您主要关注推理的效率和性能,而且有专门设计的硬件资源可用,并且愿意进行额外的配置和优化工作,那么使用 Engine 引擎可能会更有效。然而,如果您对模型预处理、特征工程等其他功能也有需求,并且希望更简单地操作和管理模型加载与推理过程,那么使用 Alink 加载 ONNX 模型可能更合适。
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/577668
问题二:机器学习PAI的alink 有 web 管理界面的 源码包 吗?
机器学习PAI的alink 有 web 管理界面的 源码包 吗?
参考回答:
你好,Alink 的 web 管理界面源码包可以在以下网址下载:
https://github.com/alibaba/alink/tree/master/alink-ui
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/581077
问题三:机器学习PAI弹内用户如何查看tensorboard?
机器学习PAI弹内用户如何查看tensorboard?
参考回答:
把events* 文件下载到本地
checkpointDir="oss://xxx/?host=oss-cn-hangzhou-zmf-internal.aliyuncs.com&role_arn=acs:ram::xxxxxx:role/abc"
$odpscmd -e "pai -name tensorboard -DsummaryDir='${checkpointDir}'" 你试一下这样行不行,现在官方好像不支持这种了
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/580782
问题四:机器学习PAI带FG功能的模型训练,训练数据就必须是这个格式吗?
机器学习PAI带FG功能的模型训练,训练数据就必须是这个格式吗?
参考回答:
这个处理是处理完带特征名称得,也可以不带特征名称得
图里面的结果也是正常的,看你的需要。也可以加上上图这个参数,那样结果里面就只有值了,我们一般用只有值的这种方式。
关于本问题的更多回答可点击原文查看:
https://developer.aliyun.com/ask/580115
问题五:机器学习PAI大模型训练什么时候会支持?
机器学习PAI大模型训练什么时候会支持?
参考回答:
还在做一些优化,暂时没有数字放出来
关于本问题的更多回答可点击原文查看: