手机也能跑通义Qwen3大模型,手把手教你部署!

简介: 全球开源模型冠军Qwen3与端到端全模态模型Qwen2.5-Omni现已成功在手机上跑通!借助MNN支持,适配Android、iOS及桌面端,实现低延迟、本地化、高安全的AI体验。用户可通过自定义Sampler设置、System Prompt和Max New Tokens调节模型输出风格与长度。

全球开源模型冠军 Qwen3、端到端全模态模型 Qwen2.5-Omni现已成功在手机上跑通!

在 MNN 的支持下,Qwen3 系列模型已适配 AndroidiOS 桌面端,实现低延迟、本地化、高安全的 AI 体验。同时,Qwen2.5-Omni 的语音理解、图像分析等多模态能力也在移动端得到完整释放。

image.png

MNN Chat APP 支持自定义 Sampler 设置System Prompt Max New Tokens,你可以根据需要调节模型输出的风格、长度和人设,让 Qwen3 的回答更贴合你的使用场景。

image.png

⬆️ 官方推荐 Sample 参数

image.png


是不是已经迫不及待想要动手尝试了?小编为你整理了一份适用于 Android、iOS 和桌面端的完整部署流程,跟着做就能轻松上手。

Android 平台部署

Android 用户可以直接从 GitHub 上下载,也可自行编译定制功能。

git clone https://github.com/alibaba/MNN.gitcd project/androidmkdir build_64../build_64.sh "-DMNN_LOW_MEMORY=true  -DMNN_BUILD_LLM=true -DMNN_SUPPORT_TRANSFORMER_FUSE=true -DMNN_ARM82=true -DMNN_USE_LOGCAT=true -DMNN_OPENCL=true -DLLM_SUPPORT_VISION=true -DMNN_BUILD_OPENCV=true -DMNN_IMGCODECS=true -DLLM_SUPPORT_AUDIO=true -DMNN_BUILD_AUDIO=true -DMNN_BUILD_DIFFUSION=ON -DMNN_SEP_BUILD=ON"find . -name "*.so" -exec cp {} ../apps/MnnLlmApp/app/src/main/jniLibs/arm64-v8a/  cd ../apps/MnnLlmApp/./gradlew installDebug

1:05

iOS 平台部署

现阶段 iOS 用户需要手动编译,部署过程分为 5 步

1、下载仓库代码

git clone https://github.com/alibaba/MNN.git

2、编译 MNN.framework


cd MNN/
sh package_scripts/ios/buildiOS.sh "-DMNN_ARM82=true -DMNN_LOW_MEMORY=true -DMNN_SUPPORT_TRANSFORMER_FUSE=true -DMNN_BUILD_LLM=true 
-DMNN_METAL=ON
-DMNN_BUILD_DIFFUSION=ON
-DMNN_BUILD_OPENCV=ON
-DMNN_IMGCODECS=ON
-DMNN_OPENCL=OFF
-DMNN_SEP_BUILD=OFF

3、拷贝 framework 到 iOS 项目中


mv MNN-iOS-CPU-GPU/Static/MNN.framework 
/apps/iOS/MNNLLMChat/MNN.framework

4、配置依赖库

这里需要确保 Link Binary With Libraried 中包含 MNN.framework 和其他三个 Framework。

image.png

如果没有包含,可以手动添加:

image.png

image.png

5、修改 iOS 签名并编译项目

cd /apps/iOS/MNNLLMChat
open MNNLLMiOS.xcodeproj

在 Xcode 的 Signing & Capabilities 页面中设置 Team 和 Bundle Identifier 后,点击运行按钮即可启动应用,加载并运行 Qwen3 或 Qwen2.5-Omni 模型。

image.png

后续我们也会上线 TestFlight 安装包,让你一键安装、轻松使用!

桌面端部署(Windows、Mac、Linux)

如果你想在电脑上尝试这些模型,也非常简单,只需要从魔搭平台下载模型,再配合 MNN 源码编译即可。

1、模型下载

#命令行工具下载
odelscope download --model 'MNN/Qwen2.5-Omni-3B-MNN' --local_dir 'path/to/dir'

2、环境安装

  • x86架构额外加 MNN_AVX512 的宏:
  • Mac 推荐增加 MNN_METAL的宏
git clone https://github.com/alibaba/MNN.git
# 编译
cd MNNmkdir build && cd buildcmake .. -DLLM_SUPPORT_VISION=ON -DMNN_BUILD_OPENCV=ON -DMNN_IMGCODECS=ON -DLLM_SUPPORT_AUDIO=ON -DMNN_BUILD_AUDIO=ON -DMNN_LOW_MEMORY=true -DMNN_CPU_WEIGHT_DEQUANT_GEMM=true -DMNN_BUILD_LLM=true -DMNN_SUPPORT_TRANSFORMER_FUSE=truemake -j

编译完成后,可以看到 mnncli 产物,通过 mnncli 命令可以执行下载、benchmark 测试、启动 rest 服务等功能。

:

➡️ Qwen3模型推理

# 运行
./mnncli serve Qwen3-4B-MNN

完成上述命令执行后,系统将在本地启动一个 REST 服务端,接下来你就可以在 Chatbox 等客户端配置使用 MNN 服务啦~

image.png

➡️ Qwen2.5-Omni 模型推理

./llm_demo /path/to/Qwen2.5-Omni-3B-MNN/config.json

你可以通过上述命令启动推理流程,Qwen2.5-Omni 支持在提示词中嵌入图像和音频资源,实现图文+语音的联合理解。例如:

<img>https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg</img>介绍一下这张图片
<audio>https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2-Audio/audio/translate_to_chinese.wav</audio>

image.png


📢注意注意:由于本篇文章内视频链接不可下载,详细视频信息可点击此链接查看:https://mp.weixin.qq.com/s/VSC7Bkcq-w991CodHFIfyw

⛳如果想要了解更多通义大模型的模型详细信息以及直接进入体验,可以点击🔗https://www.aliyun.com/product/tongyi直接进入查看和体验哦~~

也可以关注一下通义大模型的公众号,后续有新的产品动态都会在内发布。

通义大模型公众号二维码.png

相关实践学习
如何快速创建插件agent
阿里云百炼应用基于Assistant API技术架构,结合大语言模型(LLM)的推理、知识检索增强、插件调度等能力,构建应对各类复杂场景任务的场景应用。通过集成化、直观易用的产品界面,为开发者提供了丰富的应用配置选项,包括大型语言模型(LLM)选择、Pro
相关文章
|
17天前
|
机器学习/深度学习 人工智能 算法
通义OmniAudio大模型,让 AI 看懂 360° 视频,并“听”出对应的空间音频
OmniAudio 是一项突破性的空间音频生成技术,能够直接从 360° 视频生成 FOA(First-order Ambisonics)空间音频,为虚拟现实和沉浸式娱乐带来全新可能。通过自监督 coarse-to-fine 预训练和双分支视频表示微调,OmniAudio 在非空间音频质量和空间定位准确性上显著优于现有方法。项目包含超过 103,000 个视频片段的 Sphere360 数据集,支持高质量的模型训练与评估。代码、数据及论文均已开源,助力沉浸式体验技术发展。
|
16天前
|
机器学习/深度学习 编解码 文字识别
小米又放大招!MiMo-VL 多模态大模型开源,魔搭推理微调全面解读来了!
今天,小米开源发布两款 7B 规模视觉-语言模型 MiMo-VL-7B-SFT 和 MiMo-VL-7B-RL。
184 9
|
22天前
|
人工智能 自然语言处理 程序员
通义灵码 2.5 版发布上线,支持 Qwen3
示例中展示了通义灵码创建贪食蛇游戏的过程,包括代码优化、Bug修复和功能改进(如游戏结束后提示重新开始)。并通过AI总结了工具的核心能力,如实时续写、自然语言生码、单元测试生成等,帮助开发者高效编码并提升代码质量。
104 9
|
24天前
|
机器学习/深度学习 人工智能 关系型数据库
通义 CoGenAV 大模型音画同步感知,重新定义语音理解边界
CoGenAV 是一种创新的多模态语音理解模型,核心理念是实现“音画同步”的深度理解。通过学习 audio-visual-text 的时序对齐关系,构建更鲁棒、更通用的语音表征框架。它在视觉语音识别(VSR)、音视频语音识别(AVSR)、语音增强与分离(AVSE/AVSS)及主动说话人检测(ASD)等任务中表现出色,尤其在嘈杂环境下性能显著提升。仅需 223 小时数据训练即可媲美传统数千小时数据的效果,大幅降低训练成本。CoGenAV 支持主流平台如 GitHub、HuggingFace 和 ModelScope,助力多场景应用开发。
|
1月前
|
开发者
qwen3大模型目前的不足与功能建议
这段内容反映了用户在过去半个多月与Qwen3大模型在线服务互动后,发现的功能不足及对未来功能的建议。用户已将所有意见汇总至一个会话,并通过www.tongyi.com页面分享对话链接。希望Qwen开发团队重视这些建议,同时也会发布到阿里云开发者社区讨论。待官方回复后,用户将根据回复决定是否分享给其他云服务厂商和开源社区。
|
27天前
|
机器学习/深度学习 自然语言处理 算法框架/工具
实战 | Qwen2.5-VL模型目标检测(Grounding)任务领域微调教程
在目标检测领域,众多神经网络模型早已凭借其卓越的性能,实现了精准的目标检测与目标分割效果。然而,随着多模态模型的崛起,其在图像分析方面展现出的非凡能力,为该领域带来了新的机遇。多模态模型不仅能够深入理解图像内容,还能将这种理解转化为文本形式输出,极大地拓展了其应用场景。
1552 74
|
1月前
|
人工智能 负载均衡 数据可视化
10分钟上手全球开源模型冠军 Qwen3
阿里通义千问Qwen3在最新全球AI基准测试中智能水平位列全球前五,开源第一,且成本优势显著,推理成本仅为DeepSeek-R1的1/3、Claude 3.7的1/20。Qwen3支持119种语言,具备强大的代码和数学能力,同时提供思考与非思考两种模式无缝切换,适合复杂与简单任务。通过阿里云百炼平台,用户可在10分钟内快速搭建Qwen3模型服务,结合Cherry Studio客户端实现便捷交互。本文详细介绍了Qwen3的部署、体验及工具调用能力,帮助用户轻松上手。
654 78
|
26天前
|
人工智能 数据挖掘 API
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充
155 21
基于neo4j数据库和dify大模型框架的rag模型搭建——后续补充