手机也能跑通义Qwen3大模型,手把手教你部署!

简介: 全球开源模型冠军Qwen3与端到端全模态模型Qwen2.5-Omni现已成功在手机上跑通!借助MNN支持,适配Android、iOS及桌面端,实现低延迟、本地化、高安全的AI体验。用户可通过自定义Sampler设置、System Prompt和Max New Tokens调节模型输出风格与长度。

全球开源模型冠军 Qwen3、端到端全模态模型 Qwen2.5-Omni现已成功在手机上跑通!

在 MNN 的支持下,Qwen3 系列模型已适配 AndroidiOS 桌面端,实现低延迟、本地化、高安全的 AI 体验。同时,Qwen2.5-Omni 的语音理解、图像分析等多模态能力也在移动端得到完整释放。

image.png

MNN Chat APP 支持自定义 Sampler 设置System Prompt Max New Tokens,你可以根据需要调节模型输出的风格、长度和人设,让 Qwen3 的回答更贴合你的使用场景。

image.png

⬆️ 官方推荐 Sample 参数

image.png


是不是已经迫不及待想要动手尝试了?小编为你整理了一份适用于 Android、iOS 和桌面端的完整部署流程,跟着做就能轻松上手。

Android 平台部署

Android 用户可以直接从 GitHub 上下载,也可自行编译定制功能。

git clone https://github.com/alibaba/MNN.gitcd project/androidmkdir build_64../build_64.sh "-DMNN_LOW_MEMORY=true  -DMNN_BUILD_LLM=true -DMNN_SUPPORT_TRANSFORMER_FUSE=true -DMNN_ARM82=true -DMNN_USE_LOGCAT=true -DMNN_OPENCL=true -DLLM_SUPPORT_VISION=true -DMNN_BUILD_OPENCV=true -DMNN_IMGCODECS=true -DLLM_SUPPORT_AUDIO=true -DMNN_BUILD_AUDIO=true -DMNN_BUILD_DIFFUSION=ON -DMNN_SEP_BUILD=ON"find . -name "*.so" -exec cp {} ../apps/MnnLlmApp/app/src/main/jniLibs/arm64-v8a/  cd ../apps/MnnLlmApp/./gradlew installDebug

1:05

iOS 平台部署

现阶段 iOS 用户需要手动编译,部署过程分为 5 步

1、下载仓库代码

git clone https://github.com/alibaba/MNN.git

2、编译 MNN.framework


cd MNN/
sh package_scripts/ios/buildiOS.sh "-DMNN_ARM82=true -DMNN_LOW_MEMORY=true -DMNN_SUPPORT_TRANSFORMER_FUSE=true -DMNN_BUILD_LLM=true 
-DMNN_METAL=ON
-DMNN_BUILD_DIFFUSION=ON
-DMNN_BUILD_OPENCV=ON
-DMNN_IMGCODECS=ON
-DMNN_OPENCL=OFF
-DMNN_SEP_BUILD=OFF

3、拷贝 framework 到 iOS 项目中


mv MNN-iOS-CPU-GPU/Static/MNN.framework 
/apps/iOS/MNNLLMChat/MNN.framework

4、配置依赖库

这里需要确保 Link Binary With Libraried 中包含 MNN.framework 和其他三个 Framework。

image.png

如果没有包含,可以手动添加:

image.png

image.png

5、修改 iOS 签名并编译项目

cd /apps/iOS/MNNLLMChat
open MNNLLMiOS.xcodeproj

在 Xcode 的 Signing & Capabilities 页面中设置 Team 和 Bundle Identifier 后,点击运行按钮即可启动应用,加载并运行 Qwen3 或 Qwen2.5-Omni 模型。

image.png

后续我们也会上线 TestFlight 安装包,让你一键安装、轻松使用!

桌面端部署(Windows、Mac、Linux)

如果你想在电脑上尝试这些模型,也非常简单,只需要从魔搭平台下载模型,再配合 MNN 源码编译即可。

1、模型下载

#命令行工具下载
odelscope download --model 'MNN/Qwen2.5-Omni-3B-MNN' --local_dir 'path/to/dir'

2、环境安装

  • x86架构额外加 MNN_AVX512 的宏:
  • Mac 推荐增加 MNN_METAL的宏
git clone https://github.com/alibaba/MNN.git
# 编译
cd MNNmkdir build && cd buildcmake .. -DLLM_SUPPORT_VISION=ON -DMNN_BUILD_OPENCV=ON -DMNN_IMGCODECS=ON -DLLM_SUPPORT_AUDIO=ON -DMNN_BUILD_AUDIO=ON -DMNN_LOW_MEMORY=true -DMNN_CPU_WEIGHT_DEQUANT_GEMM=true -DMNN_BUILD_LLM=true -DMNN_SUPPORT_TRANSFORMER_FUSE=truemake -j

编译完成后,可以看到 mnncli 产物,通过 mnncli 命令可以执行下载、benchmark 测试、启动 rest 服务等功能。

:

➡️ Qwen3模型推理

# 运行
./mnncli serve Qwen3-4B-MNN

完成上述命令执行后,系统将在本地启动一个 REST 服务端,接下来你就可以在 Chatbox 等客户端配置使用 MNN 服务啦~

image.png

➡️ Qwen2.5-Omni 模型推理

./llm_demo /path/to/Qwen2.5-Omni-3B-MNN/config.json

你可以通过上述命令启动推理流程,Qwen2.5-Omni 支持在提示词中嵌入图像和音频资源,实现图文+语音的联合理解。例如:

<img>https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg</img>介绍一下这张图片
<audio>https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2-Audio/audio/translate_to_chinese.wav</audio>

image.png


📢注意注意:由于本篇文章内视频链接不可下载,详细视频信息可点击此链接查看:https://mp.weixin.qq.com/s/VSC7Bkcq-w991CodHFIfyw

⛳如果想要了解更多通义大模型的模型详细信息以及直接进入体验,可以点击🔗https://www.aliyun.com/product/tongyi直接进入查看和体验哦~~

也可以关注一下通义大模型的公众号,后续有新的产品动态都会在内发布。

通义大模型公众号二维码.png

相关实践学习
如何快速创建插件agent
阿里云百炼应用基于Assistant API技术架构,结合大语言模型(LLM)的推理、知识检索增强、插件调度等能力,构建应对各类复杂场景任务的场景应用。通过集成化、直观易用的产品界面,为开发者提供了丰富的应用配置选项,包括大型语言模型(LLM)选择、Pro
目录
打赏
0
9
9
0
572
分享
相关文章
利用通义大模型构建个性化推荐系统——从数据预处理到实时API部署
本文详细介绍了基于通义大模型构建个性化推荐系统的全流程,涵盖数据预处理、模型微调、实时部署及效果优化。通过采用Qwen-72B结合LoRA技术,实现电商场景下CTR提升58%,GMV增长12.7%。文章分析了特征工程、多任务学习和性能调优的关键步骤,并探讨内存优化与蒸馏实践。最后总结了大模型在推荐系统中的适用场景与局限性,提出未来向MoE架构和因果推断方向演进的建议。
157 10
通义大模型在文档自动化处理中的高效部署指南(OCR集成与批量处理优化)
本文深入探讨了通义大模型在文档自动化处理中的应用,重点解决传统OCR识别精度低、效率瓶颈等问题。通过多模态编码与跨模态融合技术,通义大模型实现了高精度的文本检测与版面分析。文章详细介绍了OCR集成流程、批量处理优化策略及实战案例,展示了动态批处理和分布式架构带来的性能提升。实验结果表明,优化后系统处理速度可达210页/分钟,准确率达96.8%,单文档延迟降至0.3秒,为文档处理领域提供了高效解决方案。
100 0
通义OmniAudio大模型,让 AI 看懂 360° 视频,并“听”出对应的空间音频
OmniAudio 是一项突破性的空间音频生成技术,能够直接从 360° 视频生成 FOA(First-order Ambisonics)空间音频,为虚拟现实和沉浸式娱乐带来全新可能。通过自监督 coarse-to-fine 预训练和双分支视频表示微调,OmniAudio 在非空间音频质量和空间定位准确性上显著优于现有方法。项目包含超过 103,000 个视频片段的 Sphere360 数据集,支持高质量的模型训练与评估。代码、数据及论文均已开源,助力沉浸式体验技术发展。
276 62
vLLM 部署 Qwen3
本文介绍了在特定环境下安装和使用 vLLM 的步骤。环境配置包括 CUDA 12.2、40GB 显存,使用 conda 进行 Python 包管理,并基于 Qwen3-8B 模型。首先通过创建 conda 环境并安装 vLLM 实现部署,接着启动 API 服务以支持对话功能。文中提供了 curl 和 Python 两种调用方式示例,方便用户测试与集成。
814 1
基于通义大模型的智能客服系统构建实战:从模型微调到API部署
本文详细解析了基于通义大模型的智能客服系统构建全流程,涵盖数据准备、模型微调、性能优化及API部署等关键环节。通过实战案例与代码演示,展示了如何针对客服场景优化训练数据、高效微调大模型、解决部署中的延迟与并发问题,以及构建完整的API服务与监控体系。文章还探讨了性能优化进阶技术,如模型量化压缩和缓存策略,并提供了安全与合规实践建议。最终总结显示,微调后模型意图识别准确率提升14.3%,QPS从12.3提升至86.7,延迟降低74%。
255 14
智能体(AI Agent)开发实战之【LangChain】(二)结合大模型基于RAG实现本地知识库问答
智能体(AI Agent)开发实战之【LangChain】(二)结合大模型基于RAG实现本地知识库问答
魔塔社区-微调Qwen3-1.7B大模型实战
这是一篇关于模型微调实战的教程,主要步骤如下:1. 使用魔塔社区提供的GPU环境;2. 处理 delicate_medical_r1_data 数据集生成训练和验证文件;3. 加载Modelscope上的Qwen3-1.7B模型;4. 注册并使用Swanlab工具配置API;5. 按顺序执行完整代码完成微调设置;6. 展示训练过程。完整代码与实验记录分别托管于魔塔社区和SwanLab平台,方便复现与学习。
346 1
AI Agent智能体:底层逻辑、原理与大模型关系深度解析·优雅草卓伊凡
AI Agent智能体:底层逻辑、原理与大模型关系深度解析·优雅草卓伊凡
165 2
AI Agent智能体:底层逻辑、原理与大模型关系深度解析·优雅草卓伊凡
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等

登录插画

登录以查看您的控制台资源

管理云资源
状态一览
快捷访问