我当前需要将paraformer-large-contextual offline模型转换为RKNN模型部署到终端,遇到转换失败问题,需要对模型进行拆分,想参考online模型的拆分方式,我看到online模型拆分后在decoder部分需要进行缓存处理,想确认一下modelscope-funasr的offline模型可以不进行缓存处理吗?由于offline模型还要进行热词embedding处理,加上缓存处理复杂度较高!
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352