开发者社区 > 大数据与机器学习 > 人工智能平台PAI > 正文

机器学习PAI现在有个模型用blade跟trt比,gpu利用率会高20%左右,这个一般怎么分析一下?

请教一下,机器学习PAI现在有个模型用blade跟trt比,gpu利用率会高20%左右,这个一般怎么分析一下?nsys可以看到有些matmul的kernel选择跟trt是不同的

展开
收起
冰激凌甜筒 2023-04-10 12:31:11 265 0
2 条回答
写回答
取消 提交回答
  • 坚持这件事孤独又漫长。

    可以考虑以下几点:

    • 计算密集型操作的优化:通过对matmul等计算密集型操作进行优化,可以提高GPU计算利用率,从而加速模型推理。

    • 算法选择的优化:通过使用更优秀的算法,可以减少GPU计算资源的浪费,从而提高GPU利用率。

    • 并行计算的优化:通过使用并行计算的方式,可以充分利用GPU的多个计算核心,从而提高计算效率和GPU利用率。

    在以上基础上,可以根据NSys的分析结果,进一步了解每个kernel的选择和执行情况,从而进行更深入的分析和优化。

    2023-04-10 14:49:01
    赞同 展开评论 打赏
  • 这个把batch size从1024改成512之后,gpu利用率降下来了,此回答整理自钉群“BladeDISC用户支持群”

    2023-04-10 13:02:26
    赞同 展开评论 打赏

人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。

相关产品

  • 人工智能平台 PAI
  • 热门讨论

    热门文章

    相关电子书

    更多
    DeepStream: GPU加速海量视频数据智能处理 立即下载
    阿里巴巴高性能GPU架构与应用 立即下载
    GPU在超大规模深度学习中的发展和应用 立即下载