开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

modelscope-funasr这个现象是正常的吗?

modelscope-funasr这个现象是正常的吗?基于paraformer large预训练模型训练fp16版本,deepspeed方式会报错,ddp方式训完后,模型大小只减少了几十兆,大部分层还是fp32。

展开
收起
三分钟热度的鱼 2024-08-28 19:53:15 40 0
1 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    检查所使用的modelscope-funasr及其依赖库版本,考虑更新至最新版本。
    查阅项目GitHub页面的Issue区域,看是否有其他用户报告了类似问题及可能的解决方案。
    image.png

    FP16(半精度浮点数)训练旨在减少内存占用和加速计算,但模型大小的减少主要体现在训练过程中的内存占用上,而非最终保存模型的大小。DDP训练后模型大小仅减少几十兆可能是因为并非所有部分都能从FP32转换为FP16,特别是某些操作或层可能因兼容性或精度需求仍保持在FP32格式

    2024-09-02 09:20:32
    赞同 291 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载