modelscope-funasrASR语音识别推理backend选择用onnx的原因主要是什么呢?

modelscope-funasrASR语音识别的推理backend选择用onnx而不用libtorch的考虑原因主要是什么呢?
原本FunASR的文档中对onnx和libtorch的耗时比较页面似乎也404了

展开
收起
嘟嘟嘟嘟嘟嘟 2023-12-20 08:22:29 191 分享 版权
1 条回答
写回答
取消 提交回答
  • 都有的,gpu是基于libtorch,cpu是onnx,主要是从推理速度来考虑的。此回答整理自钉群“modelscope-funasr社区交流”

    2023-12-20 09:22:54
    赞同 展开评论

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理