开发者社区 > 大数据与机器学习 > 人工智能平台PAI > 正文

请问结合Blade和TensorRT Plugin优化模型主要流程是怎样的?

已解决

请问结合Blade和TensorRT Plugin优化模型主要流程是怎样的?

展开
收起
felix@ 2023-01-29 13:08:12 1337 1
2 条回答
写回答
取消 提交回答
  • 今天也要加油吖~
    采纳回答

    您好,流程如下:

    1.步骤一:创建带有TensorRT Plugin的PyTorch模型

    使用TensorRT Plugin实现RetinaNet的后处理部分。

    2.步骤二:调用Blade优化模型

    调用blade.optimize接口优化模型,并保存优化后的模型。

    3.步骤三:加载运行优化后的模型

    经过对优化前后的模型进行性能测试,如果对结果满意,可以加载优化后的模型进行推理。

    2023-01-29 13:13:17
    赞同 展开评论 打赏
  • 1.使用Blade进行模型转换,将模型转换成TensorRT的支持的格式。

    2.使用TensorRT Plugin对转换后的模型进行优化,可以使用TensorRT的高效算法和组件来提升模型性能。

    3.将优化后的模型部署到生产环境中,在阿里云上运行。

    2023-01-29 15:58:48
    赞同 展开评论 打赏

人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载