modelscope-funasrASR语音识别的推理backend选择用onnx而不用libtorch的考虑原因主要是什么呢?
原本FunASR的文档中对onnx和libtorch的耗时比较页面似乎也404了
都有的,gpu是基于libtorch,cpu是onnx,主要是从推理速度来考虑的。此回答整理自钉群“modelscope-funasr社区交流”
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352