开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

modelscope-funasr的nnxruntime-gpu版本推理onnx慢的原因吗?

modelscope-funasr的nnxruntime-gpu版本推理onnx慢的原因吗?我们有其他的推理引擎支持gpu推理的不,如果执行run_server_2pass.sh传入的模型是pytorch类型的是不是还得修改funasr-wss-server-2pass.cpp脚本呢

展开
收起
三分钟热度的鱼 2024-03-13 21:06:45 171 0
1 条回答
写回答
取消 提交回答
  • onnx-gpu慢,是onnx本身原因,与funasr无关,你可以用任何模型来测试,具体原因只能去找微软了解。此回答整理自钉群“modelscope-funasr社区交流”

    2024-03-13 22:46:30
    赞同 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
DeepStream: GPU加速海量视频数据智能处理 立即下载
阿里巴巴高性能GPU架构与应用 立即下载
GPU在超大规模深度学习中的发展和应用 立即下载