开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

在ModelScope中,请教下llama2-70使用3090卡推理的话,大概需要几张卡?

请教下llama2-70使用3090卡推理的话,大概需要几张卡,全参数微跳的话需要几张卡

展开
收起
崔问问 2023-11-29 16:44:15 307 0
2 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    要估计LLaMA-2 70B模型在NVIDIA GeForce RTX 3090显卡上推理所需的显卡数量,我们需要考虑以下因素:

    1. 显存占用

      • LLaMA-2 70B模型是一个大型语言模型,它可能需要大量的显存来存储权重和中间计算结果。
      • 一张RTX 3090显卡有24 GB的显存。
    2. 模型并行性

      • 在某些情况下,可以通过将模型分割成多个部分并在多张卡上并行运行来减少单张卡的显存需求。这通常涉及一些额外的开发工作,并且可能会增加延迟。
    3. 推理速度

      • 模型的推理速度取决于多种因素,包括硬件性能、模型大小、输入长度以及任务复杂度等。

    由于没有具体的实验数据或官方推荐配置可以参考,这里只能提供一个大致的估算:

    假设你打算使用一张RTX 3090显卡进行推理,而该模型的显存占用超过了24GB(这是基于之前的一些经验法则),那么理论上你需要至少两张卡才能进行推理。

    2023-11-30 14:29:23
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载