开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

多卡训练得到的GPT3-2.7B模型,推理pipeline加载模型时报错size mismatch

使用官网镜像registry.cn-hangzhou.aliyuncs.com/modelscope-repo/modelscope:ubuntu20.04-cuda11.3.0-py37-torch1.11.0-tf1.15.5-1.3.0 4卡V100 finetune GPT3-2.7B得到output模型文件后,用

报错模型size mismatch,刚好差了4倍 image.png

展开
收起
游客5rty4zy6dfpts 2023-03-07 19:53:19 1159 0
3 条回答
写回答
取消 提交回答
  • 尝试一下我修复的bug的版本

    https://github.com/zhangzhenyu13/modelscope-debugged

    2023-03-16 17:35:02
    赞同 1 展开评论 打赏
  • 您好,给您带来的不便深表歉意,在1.3.0版本中存在GPT3存储checkpoint的一个bug,建议更新至1.3.2版本进行训练和推理

    2023-03-08 21:26:21
    赞同 展开评论 打赏
  • 咱俩一样,加我微信15821444815,讨论一下

    2023-03-08 09:59:54
    赞同 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载