开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope跑了一下7b前两个问题可以回答,怎么回答后GPU的占用没降下去,再问就爆显存了?

ModelScope跑了一下7b前两个问题可以回答,怎么回答后GPU的占用没降下去,再问就爆显存了?

展开
收起
青城山下庄文杰 2023-08-06 08:48:05 305 0
2 条回答
写回答
取消 提交回答
  • 把模型实例化那部分拆开来,只执行一次。 重复执行会爆显存。-此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-08-08 10:47:28
    赞同 展开评论 打赏
  • 北京阿里云ACE会长

    如果在使用ModelScope运行7b模型后,回答了前两个问题后GPU的占用没有降下去,并且继续提问可能导致显存耗尽,可能有以下原因和解决方法:

    内存泄漏:可能存在内存泄漏导致GPU显存无法正确释放。内存泄漏可能是由于代码中的bug或资源管理问题引起的。您可以检查代码并确保在每个问题回答后释放不再需要的资源,特别是模型和中间计算结果。

    模型加载:如果在每次提问时都重新加载模型,这会导致GPU显存占用较高。您可以尝试将模型加载操作移至整个问答过程的开始,而不是每次提问时都重新加载。

    批处理大小:如果批处理大小设置过大,可能会导致显存耗尽。您可以尝试减小批处理大小,以降低对显存的需求。

    显存清理:在每次回答问题后,您可以手动清理GPU显存。您可以使用相关的深度学习框架提供的函数或方法,如TensorFlow的tf.keras.backend.clear_session()或PyTorch的torch.cuda.empty_cache(),来清理GPU显存。

    限制提问频率:如果显存耗尽问题仍然存在,您可以限制提问的频率,确保每次提问之间有足够的时间来释放GPU显存。这可以通过添加适当的延迟或等待时间来实现。

    请注意,上述解决方法是一般性的建议,具体操作可能取决于您使用的代码和框架。您需要仔细检查代码,了解模型加载和资源管理的细节,并根据具体情况进行调整。

    2023-08-07 20:10:01
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
DeepStream: GPU加速海量视频数据智能处理 立即下载
阿里巴巴高性能GPU架构与应用 立即下载
GPU在超大规模深度学习中的发展和应用 立即下载