热门
GPT-3中文2.7B单卡跑训练CUDA显存会炸。因此需要多卡跑,但是切换到多卡后,似乎需要手动拆分模型,否则会报错。
以两张卡为例,直接跑命令“torchrun --nproc_per_node 2 finetune_dureader.py”会报“找不到mp_rank_01_model_states.pt”。
我也有zh这个问题,交流一下15821444815
训练框架似乎是支持多卡训练的,最好能拆分,但是拆分的话能做到自动化其实也很方便了。
包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域