热门
您好,请问gpt 3 2.7b支持多机多卡微调吗?
您好,目前我们不推荐使用多机多卡微调,如果确实有必要使用多机多卡,需要您具有一定的并行训练相关调试知识,且需要注意以下两点: 1. evaluation 设置中的 gpu_collect 需要设置成 true 2. 多机之间目前仅支持数据并行,且 ddp 封装会造成额外的显存占用,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”
支持,GPT-3 2.7B支持多机多卡微调。GPT-3 2.7B使用的是TensorFlow分布式训练框架,可以利用多台机器和多个GPU来加速微调。
包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域