开发者社区 > ModelScope模型即服务 > 正文

ModelScope有部署qwen2-72b的么,正常推理需要多大的显存?

请问一下,ModelScope有部署qwen2-72b的么,正常推理需要多大的显存?

展开
收起
小小爱吃香菜 2024-06-26 08:30:41 401 1
2 条回答
写回答
取消 提交回答
  • 进行正常的推理任务时,Qwen2-72B模型需要A100 GPU(具备80 GB显存)或更高配置的显卡支持。这意味着推理服务部署至少需要A100级别的显卡以满足其显存需求。

    2024-07-13 20:12:22
    赞同 3 展开评论 打赏
  • 4张V100失败了 我看hg上写:运行BF16或FP16模型需要多卡至少144GB显存(例如2xA100-80G或5xV100-32G);运行Int4模型至少需要48GB显存(例如1xA100-80G或2xV100-32G)。

    2024-06-26 16:35:46
    赞同 39 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载