请问MNN支持在高通或者MTK平台上部署大模型吗?

我下载了MNN的源码工程,想验证一下从.safetensors转出来的.mnn模型,是否可以在高通平台上利用NPU推理框架,或者MTK平台上利用APU推理框架进行加速推理,但是我不知道有没有直接可以加载模型的demo,有的话要怎么配置或者使用才能利用APU推理,想请假一下大家

展开
收起
游客5wkefycldfcuc 2025-07-31 14:15:48 60 分享 版权
0 条回答
写回答
取消 提交回答

包含图像描述、文本生成图片、版面分析、多模态表征、视觉问答、文档理解等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理