开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope中,Qwen-14B-Chat-Int4的这个示例在多卡服务器上跑需要设置什么?

问题一:ModelScope中,请问Qwen-14B-Chat-Int4的这个示例在多卡服务器上跑需要设置什么吗?这边一直卡在加载模型跑不下去呢64461de1513f2266d81e1f19d27a5eb2.png问题二;可以指定多卡服务器的其中一直卡吗?我改了device_map='cuda:0',跑到cpu去了而且也是卡在加载模型跑不下去

展开
收起
多麻辣哦 2023-11-08 20:55:19 336 0
2 条回答
写回答
取消 提交回答
  • 问题一:对于ModelScope中的Qwen-14B-Chat-Int4示例,如果你在多卡服务器上运行时遇到问题,首先你需要确保你的服务器上的CUDA和cuDNN版本与模型要求的版本相符。其次,你需要确保你的服务器上的PyTorch版本与模型要求的版本相符。此外,你还需要确保你的服务器上的Python版本与模型要求的版本相符。最后,你需要确保你的服务器上的其他依赖库(如transformers、torchtext等)的版本与模型要求的版本相符。

    问题二:在PyTorch中,你可以通过设置torch.device(device_map)来指定使用的设备。device_map应该是一个字符串,表示你想要使用的设备的名称。例如,如果你想使用第一台GPU设备,你可以设置device_map='cuda:0'。如果你想使用第二台GPU设备,你可以设置device_map='cuda:1',以此类推。

    然而,需要注意的是,如果你的服务器上的所有GPU设备都被其他进程占用,那么你可能无法使用这些设备。此外,如果你的服务器上的GPU设备不支持你所需要的功能(如FP16计算),那么你也无法使用这些设备。

    如果你的代码在指定了设备后仍然无法运行,那么可能是你的代码中存在其他问题。在这种情况下,你可能需要检查你的代码,看看是否存在其他错误。

    2023-11-09 10:36:32
    赞同 展开评论 打赏
  • 针对问题一的回答:多卡还不支持叭,notebook免费实例您试一下,可以跑的。针对问题二的回答:device_map改成device。——此回答整理自钉群:魔搭ModelScope开发者联盟群 ①

    2023-11-08 22:00:52
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
ECS成熟度评估&洞察 立即下载
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载