modelscope-funasr的onnxruntime c++只能使用onnx结尾的模型吗?还是说都可以啊
ONNX Runtime
是一个用于运行深度学习模型的库,它支持多种输入和输出格式,包括 .onnx
格式。.onnx
是一种开放的标准格式,用于表示深度学习模型,它使得模型可以在不同的深度学习框架之间共享和迁移。
然而,ONNX Runtime
并不只限于处理 .onnx
格式的模型。虽然 .onnx
格式是最常用的,但 ONNX Runtime
也可以处理其他格式的模型,例如 TensorFlow 格式 (tf_saved_model
、pb
、pb-full
) 和 PyTorch 格式 (pt
)。
所以,modelscope-funasr
中基于 ONNX Runtime
的 C++ 实现并不一定只能使用 .onnx
结尾的模型。它应该能够处理多种格式的模型,只要这些模型符合 ONNX 格式的规范。不过,具体的支持程度和性能可能因模型和 ONNX 版本而有所不同。
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352