modelscope-funasr这个问题是为什么?

modelscope-funasr这个问题是为什么? Github README上的这个模型paraformer-zh-streaming 和 这个模型的URL点到modelscope就变成了 iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online
iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online这个速度为什么会比paraformer-zh-streaming 慢这么多

展开
收起
三分钟热度的鱼 2024-03-20 15:45:54 185 分享 版权
2 条回答
写回答
取消 提交回答
  • 阿里云大降价~

    modelscope-funasr中模型iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online相较于paraformer-zh-streaming速度较慢的原因可能与以下因素有关:

    1. 模型复杂度iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online可能具有更大的模型规模,例如更多的层数、隐藏单元或其他复杂结构,这会增加计算量,导致推理时间增长。
    2. 优化程度paraformer-zh-streaming可能是针对流式处理和实时性进行了特定优化的模型,而iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online可能在其他方面(如准确率)进行了优化,牺牲了一定的处理速度。
    3. 输入音频格式:不同的模型可能对输入音频的格式有不同的处理效率。例如,如果一个模型是专门为处理wav文件优化的,而另一个模型则是为pcm格式优化的,那么它们在处理不同格式的音频时可能会有速度差异。
    4. 服务部署方式:如果这两个模型是在不同的环境下部署的,比如一个是通过Docker启动的服务,另一个是直接在机器上运行的,那么它们的运行速度可能会受到部署环境的影响。
    5. 硬件资源:两个模型如果在硬件资源使用上有差异,比如CPU、GPU或内存的使用情况不同,也可能导致速度上的差异。
    6. 内部实现细节:模型的内部实现细节,如算法的选择、计算图的优化等,都会对模型的运行速度产生影响。

    总的来说,modelscope-funasr中模型iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online相较于paraformer-zh-streaming速度较慢的可能原因与模型复杂度、优化程度以及输入音频格式等因素有关。

    2024-03-27 19:17:53
    赞同 展开评论
  • 这是同一个模型。此回答整理自钉群“modelscope-funasr社区交流”

    2024-03-20 15:57:25
    赞同 展开评论

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理