开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

modelscope-funasr的这个要比whisper/demo.py慢5倍,是模型不同吗?

modelscope-funasr的whisper/demo_from_openai.py要比whisper/demo.py慢5倍,是模型不同还是代码的问题?这两个都没有使用cuda吗?

展开
收起
三分钟热度的鱼 2024-03-13 21:00:55 54 0
1 条回答
写回答
取消 提交回答
  • 关于ModelScope-FunASR与Whisper在性能上的对比,有很多种原因:

    • 模型架构不同:FunASR和Whisper的内部结构可能不尽相同,导致推理速度存在差异。例如,Whisper是一个端到端的语音识别模型,而FunASR的具体架构未明确说明,不同的模型复杂度、层数、参数量都会影响其运行速度。
    • 优化程度不同:模型是否进行了量化或模型压缩优化会影响其运行效率。未经优化的模型在计算资源有限的情况下可能会运行较慢。

    • 硬件加速支持:即使在同一台设备(如4090 GPU)上,如果FunASR没有充分利用GPU进行有效加速,或者编译优化设置不恰当,也可能导致运行速度低于Whisper。

    • 数据处理流程:除了模型本身的速度外,还包括预处理音频数据、后处理转录文本等环节的时间消耗,这些额外步骤也可能影响整体的实时性表现。

    • 批处理大小:如果测试时采用的批次大小不同,也会对吞吐量和单个样本的处理时间产生影响。

    2024-03-15 09:04:51
    赞同 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载