如何多卡 Finetuning PALM 2.0预训练生成模型?

使用 https://modelscope.cn/models/damo/nlp_palm2.0_pretrained_chinese-base/comment zhon中提供的finetune 代码,多卡训练时 torchrun --nproc_per_nodes=2 ... 其他卡GPU使用率为 0%

trainer 中添加 launcher='pytorch',无法进行 evaluation,报错:AssertionError: intra_layer_model parallel group is not initialized

展开
收起
whishtlf 2023-03-10 15:27:59 613 分享 版权
1 条回答
写回答
取消 提交回答
  • 您好,这个是一个未知的bug,我们正在尝试复现和修复,很抱歉很您带来不便,修复完成后我们会第一时间通知您

    2023-03-23 14:44:33
    赞同 展开评论

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理