开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

我本机一共4卡,请问如何使用多卡进行模型预估呢?

您好,我在使用GPU调用模型预估时,出现了显存溢出的报错:“CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 9.77 GiB total capacity; 8.05 GiB already allocated; 4.69 MiB free; 8.29 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF”,我本机一共4卡,请问如何使用多卡进行模型预估呢?

展开
收起
真的很搞笑 2023-04-03 13:23:01 262 0
2 条回答
写回答
取消 提交回答
  • pipeline 推理的话可以修改 configuration.json 文件中 megatron 部分的 world_size 和 tensor_model_parallel_size 为实际并行卡数,之后直接使用 model card 中的 pipeline 示例代码即可,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-04-03 18:34:44
    赞同 展开评论 打赏
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    你好,需要确保你的模型可以在多GPU环境下运行。PyTorch可以通过DataParallel或DistributedDataParallel实现多GPU并行计算。

    2023-04-03 14:18:34
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载