开发者社区 > ModelScope模型即服务 > 正文

modelscope-funasr的onnxruntime c++只能使用onnx结尾的模型吗?

modelscope-funasr的onnxruntime c++只能使用onnx结尾的模型吗?还是说都可以啊

展开
收起
三分钟热度的鱼 2024-01-17 19:35:32 109 0
1 条回答
写回答
取消 提交回答
  • ONNX Runtime 是一个用于运行深度学习模型的库,它支持多种输入和输出格式,包括 .onnx 格式。.onnx 是一种开放的标准格式,用于表示深度学习模型,它使得模型可以在不同的深度学习框架之间共享和迁移。

    然而,ONNX Runtime 并不只限于处理 .onnx 格式的模型。虽然 .onnx 格式是最常用的,但 ONNX Runtime 也可以处理其他格式的模型,例如 TensorFlow 格式 (tf_saved_modelpbpb-full) 和 PyTorch 格式 (pt)。

    所以,modelscope-funasr 中基于 ONNX Runtime 的 C++ 实现并不一定只能使用 .onnx 结尾的模型。它应该能够处理多种格式的模型,只要这些模型符合 ONNX 格式的规范。不过,具体的支持程度和性能可能因模型和 ONNX 版本而有所不同。

    2024-01-20 16:53:45
    赞同 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
使用C++11开发PHP7扩展 立即下载
GPON Class C++ SFP O;T Transce 立即下载
GPON Class C++ SFP OLT Transce 立即下载