modelscope-funasr这个现象是正常的吗?基于paraformer large预训练模型训练fp16版本,deepspeed方式会报错,ddp方式训完后,模型大小只减少了几十兆,大部分层还是fp32。
检查所使用的modelscope-funasr及其依赖库版本,考虑更新至最新版本。
查阅项目GitHub页面的Issue区域,看是否有其他用户报告了类似问题及可能的解决方案。
FP16(半精度浮点数)训练旨在减少内存占用和加速计算,但模型大小的减少主要体现在训练过程中的内存占用上,而非最终保存模型的大小。DDP训练后模型大小仅减少几十兆可能是因为并非所有部分都能从FP32转换为FP16,特别是某些操作或层可能因兼容性或精度需求仍保持在FP32格式