modelscope-funasr的onnxruntime c++只能使用onnx结尾的模型吗?还是说都可以啊
ONNX Runtime 是一个用于运行深度学习模型的库,它支持多种输入和输出格式,包括 .onnx 格式。.onnx 是一种开放的标准格式,用于表示深度学习模型,它使得模型可以在不同的深度学习框架之间共享和迁移。
然而,ONNX Runtime 并不只限于处理 .onnx 格式的模型。虽然 .onnx 格式是最常用的,但 ONNX Runtime 也可以处理其他格式的模型,例如 TensorFlow 格式 (tf_saved_model、pb、pb-full) 和 PyTorch 格式 (pt)。
所以,modelscope-funasr 中基于 ONNX Runtime 的 C++ 实现并不一定只能使用 .onnx 结尾的模型。它应该能够处理多种格式的模型,只要这些模型符合 ONNX 格式的规范。不过,具体的支持程度和性能可能因模型和 ONNX 版本而有所不同。
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352