modelscope-funasr的nnxruntime-gpu版本推理onnx慢的原因吗?

modelscope-funasr的nnxruntime-gpu版本推理onnx慢的原因吗?我们有其他的推理引擎支持gpu推理的不,如果执行run_server_2pass.sh传入的模型是pytorch类型的是不是还得修改funasr-wss-server-2pass.cpp脚本呢

展开
收起
三分钟热度的鱼 2024-03-13 21:06:45 319 分享 版权
1 条回答
写回答
取消 提交回答
  • onnx-gpu慢,是onnx本身原因,与funasr无关,你可以用任何模型来测试,具体原因只能去找微软了解。此回答整理自钉群“modelscope-funasr社区交流”

    2024-03-13 22:46:30
    赞同 展开评论

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理