开发者社区 > 大数据与机器学习 > 人工智能平台PAI > 正文

机器学习PAI我想问一下,你们预期的qwen-7B模型,部署eas上加速推理后,RT最好能达到多少?

机器学习PAI中vllm换成默认版本0.3.0,加上两条参数后可以正常调通了。
我想问一下,你们预期的qwen-7B模型,部署eas上加速推理后,RT最好能达到多少?

展开
收起
真的很搞笑 2024-03-11 16:27:11 70 0
1 条回答
写回答
取消 提交回答
  • vllm主要的优势还是吞吐,而且卡型不同请求内容不同,RT时间也不太一样,可以参考下官方给的数据。 ,此回答整理自钉群“机器学习PAI交流群(答疑@值班)”

    2024-03-11 16:47:33
    赞同 展开评论 打赏

人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。

相关产品

  • 人工智能平台 PAI
  • 热门讨论

    热门文章

    相关电子书

    更多
    大规模机器学习在蚂蚁+阿里的应用 立即下载
    阿里巴巴机器学习平台AI 立即下载
    机器学习及人机交互实战 立即下载