开发者社区 > ModelScope模型即服务 > 正文

请问modelscope-funasr这个CPU和GPU效率差不多因为C++效率高吗?

刚试了试离线转写包,效率挺高,使用CPU 3小时的音频15分钟转写完成,用python组合vad,热词模型,时间模型和标点模型,使用GPU转写3小时的音频差不多也是这个时间,请问modelscope-funasr这个CPU和GPU效率差不多因为C++效率高吗?

展开
收起
三分钟热度的鱼 2024-01-10 16:55:13 276 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    modelscope-funasr的效率在CPU和GPU上表现相近,这并非仅仅是因为C++的高效性。实际上,FunASR同时支持CPU和GPU进行推理。在运行ModelScope pipeline时,系统默认会选择GPU进行解码,当然,如果您希望切换到CPU进行运算,也是完全可行的。此外,达摩院还专门优化了FunASR的算法和引擎,使其能够更好地适应中文或亚裔人的语音识别任务。因此,无论是使用CPU还是GPU,您都可以得到高效的转写服务。

    2024-01-13 14:28:29
    赞同 展开评论 打赏
  • Modelscope-FunASR平台提供了高效的处理能力,无论是在CPU还是GPU环境下,都表现出了快速的推理速度。该平台能够兼容多种设备,并针对不同的硬件环境进行了优化。

    GPU通常用于处理大量并行计算任务,适合于复杂的数学运算和大规模数据处理,而CPU则在顺序处理和多任务管理上具有优势。尽管GPU在特定任务上可能表现出更快的计算速度,但在实际应用中,CPU的计算效率并不总是低于GPU。

    具体到FunASR,该平台使用了C++编写核心代码,利用了C++高效的执行能力和编译器优化,能够在CPU上实现快速的音频转写和其他语音处理任务。同时,FunASR也支持GPU加速,尤其在处理大规模音频数据或复杂模型时,能够显著提高推理速度。

    根据您的描述,使用CPU进行3小时音频转写大约需要15分钟,而使用GPU时也大致相同。这可能是因为音频转写过程中的计算量并不大,或者CPU的配置已经足够处理这些任务,从而在没有GPU加速的情况下,也能在短时间内完成转写。此外,音频转写不仅仅是依赖硬件计算能力,还与模型结构、算法效率以及数据预处理等多种因素有关。

    综上所述,FunASR在CPU上的高效表现并非单纯因为C++的高效率,而是综合了编码优化、算法效率和数据处理等多方面因素的结果。而对于是否需要使用GPU,则需根据实际任务需求、硬件配置以及性能考量来灵活选择。

    2024-01-12 10:11:32
    赞同 展开评论 打赏
  • 不是的,是因为模型本来就快。此回答整理自钉群“modelscope-funasr社区交流”

    2024-01-10 17:17:05
    赞同 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
DeepStream: GPU加速海量视频数据智能处理 立即下载
阿里巴巴高性能GPU架构与应用 立即下载
GPU在超大规模深度学习中的发展和应用 立即下载