开发者社区 > 大数据与机器学习 > 人工智能平台PAI > 正文

机器学习PAI我想问一下,你们预期的qwen-7B模型,部署eas上加速推理后,RT最好能达到多少?

机器学习PAI中vllm换成默认版本0.3.0,加上两条参数后可以正常调通了。
我想问一下,你们预期的qwen-7B模型,部署eas上加速推理后,RT最好能达到多少?

展开
收起
cuicuicuic 2024-03-11 16:27:11 39 0
1 条回答
写回答
取消 提交回答
  • vllm主要的优势还是吞吐,而且卡型不同请求内容不同,RT时间也不太一样,可以参考下官方给的数据。 ,此回答整理自钉群“机器学习PAI交流群(答疑@值班)”

    2024-03-11 16:47:33
    赞同 展开评论 打赏

相关产品

  • 人工智能平台 PAI
  • 热门讨论

    热门文章

    相关电子书

    更多
    阿里巴巴机器学习平台AI 立即下载
    基于Spark的面向十亿级别特征的 大规模机器学习 立即下载
    基于Spark的大规模机器学习在微博的应用 立即下载