modelscope-funasr v0.8.8的export_model.py中,导出量化的torchscripts模型,为什么使用三方库torch_quant,而不是pytorch自带的quantization呀?
https://github.com/alibaba-damo-academy/FunASR/tree/v0.8.8/funasr/export
torch自带的识别率损失30%左右。细节可以看论文:
https://arxiv.org/abs/2305.11013 此回答整理自钉群“modelscope-funasr社区交流”