modelscope-funasr这个现象是正常的吗?

modelscope-funasr这个现象是正常的吗?基于paraformer large预训练模型训练fp16版本,deepspeed方式会报错,ddp方式训完后,模型大小只减少了几十兆,大部分层还是fp32。

展开
收起
三分钟热度的鱼 2024-08-28 19:53:15 133 分享 版权
1 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    检查所使用的modelscope-funasr及其依赖库版本,考虑更新至最新版本。
    查阅项目GitHub页面的Issue区域,看是否有其他用户报告了类似问题及可能的解决方案。
    image.png

    FP16(半精度浮点数)训练旨在减少内存占用和加速计算,但模型大小的减少主要体现在训练过程中的内存占用上,而非最终保存模型的大小。DDP训练后模型大小仅减少几十兆可能是因为并非所有部分都能从FP32转换为FP16,特别是某些操作或层可能因兼容性或精度需求仍保持在FP32格式

    2024-09-02 09:20:32
    赞同 297 展开评论

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理