零配置部署顶级模型!函数计算一键解锁 Qwen3.5

简介: 阿里云开源千问Qwen3.5-397B-A17B,3970亿参数、仅激活170亿,性能登顶全球最强开源模型!依托函数计算FC,支持Serverless GPU一键部署,5分钟上线,显存降60%、吞吐提19倍,零门槛玩转多模态大模型。

就在最近,大模型圈再次迎来重磅炸弹!阿里巴巴开源了全新一代大模型——千问 Qwen3.5-397B-A17B,直接登顶全球最强开源模型宝座。

面对如此强大的模型,开发者们最关心的问题莫过于:“这么强的模型,部署起来会不会很麻烦?”

今天,我们就为大家带来一个“神器级解决方案——通过 函数计算 FC 实现一键部署 Qwen3.5,让顶级模型的计算力触手可及!

模型介绍

这次开源的 Qwen3.5-397B-A17B 可不是普通的模型升级,它在架构和性能上都实现了质的飞跃:

  • 性能超过万亿参数的 Qwen3-Max 模型,是目前全球最强开源模型,总参数 3970 亿,但激活参数仅 170 亿。采用创新的混合架构(线性注意力 Gated Delta Networks + 稀疏混合专家 MoE),在保持能力的同时优化了速度与成本。
  • 成本降低:部署显存占用降低 60%,推理效率大幅提升,最大推理吞吐量可提升至 19 倍
  • 全能选手:作为原生视觉 - 语言模型,在推理、编程、智能体能力与多模态理解上表现优异。语言支持从 119 种扩展至 201 种,全球通用。

部署痛点 vs. 函数计算解决方案

传统部署大模型,你通常需要面对:

  • 复杂的 GPU 环境配置
  • 繁琐的运维监控工作
  • 弹性伸缩困难

现在,有了函数计算 FC 模型服务,一切变得如此简单!

函数计算 FC 已同步接入 Qwen3.5 本次开源的模型,提供企业级部署方案。基于 Serverless GPU 架构,你无需关心底层基础设施,只需专注于模型本身的应用与调试。

一键部署 Qwen3.5-397B-A17B

  1. 准备一个 OSS Bucket, 使用 https://functionai.console.aliyun.com/old/template-detail?template=283 这个白屏化工具, 将 Qwen/Qwen3.5-397B-A17B 下载到 bucket 的一定目录中, 比如 Qwen/Qwen3.5-397B-A17B

    a. 先将这个白屏化工具部署起来, 等待部署成功

    image.png

    image.png

b. 编辑后端配置完毕以后, 将 Qwen/Qwen3.5-397B-A17B 下载对应 bucket 中的指定目录, 开始下载任务(注: 模型很大, 请耐心等待下载)
image.png

image.png

  1. FunModel 的自定义部署 ,选择好镜像以及计算资源, 填写好对应的启动命令, 既可以完成一键部署

image.png

image.png

启动命令:

vllm serve /mnt/my-model-scope/models/Qwen/Qwen3.5-397B-A17B --served-model-name Qwen/Qwen3.5-397B-A17B --port 9000 --trust-remote-code --gpu-memory-utilization 0.9 --max-model-len 262144 --tensor-parallel-size 16 --enable-auto-tool-choice --tool-call-parser qwen3_coder --reasoning-parser qwen3

3.耐心等待部署, 部署成功后, 即可以进行推理服务的调试

image.png

qwen3.5 模型市场

更多 qwen3.5 模型一键部署方案请参考(模型持续补充中)

image.png

总结

维度 传统方案 FunModel
部署时间 以天计 5分钟
技术门槛
运维以及迭代成本

依托 Serverless + GPU,天然提供了简单,轻量,0 门槛的模型集成方案,给个人开发者良好的玩转模型的体验,也让企业级开发者快速高效的部署、运维和迭代模型。
在阿里云函数计算,开发者可以做到:

  • 模型的快速部署上线:从原来的以周为单位的模型接入周期降低到 5 分钟,0 开发,无排期
  • 一键扩缩容,让运维不再是负担:多种扩缩容策略高度适配业务流量,实现“无痛运维”

在 AI 的时代浪潮下,模型作为 AI 的载体必然会不断迭代,开发者对模型部署的需求也会日益增多,函数计算 FC为模型部署和集成提供新范式,也会朝着“让人人成为开发者”的目标演进下去。

更多内容请参考

  1. FunModel快速入门
  2. FunModel 自定义部署
相关实践学习
函数计算部署PuLID for FLUX人像写真实现智能换颜效果
只需一张图片,生成程序员专属写真!本次实验在函数计算中内置PuLID for FLUX,您可以通过函数计算+Serverless应用中心一键部署Flux模型,快速体验超写实图像生成的魅力。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
20天前
|
人工智能 JavaScript API
OpenClaw(龙虾AI)免费部署使用指南:阿里云/本地秒级部署+3大免费模型API(无限量Token替代方案)
2026年,OpenClaw的普及让越来越多用户感受到AI Agent的高效,但“模型Token太贵”的抱怨也随之而来——高频使用下,Token消耗速度远超预期,不少用户刚体验到便利就被账单劝退。其实,免费模型API平台早已遍地开花,从阿里云百炼的90天免费额度,到OpenRouter的永久免费模型,再到国内平台的新用户专属福利,零成本使用OpenClaw并非难事。
2442 1
|
1月前
|
机器学习/深度学习 人工智能 监控
阿里除夕开源千问3.5:3970亿参数但只激活170亿,大模型部署成本砍半怎么做到的?
本文探讨 AI 落地深水区的成本与效率难题,解析阿里 Qwen3.5 通过混合注意力、稀疏 MoE 等技术实现性能跃升与降本增效,并对比 Prompt、RAG 与微调的适用场景,指出企业应结合模型特性规划技术路线,借助平台实现 AI 从能用向好用进阶。
1817 5
|
2月前
|
机器学习/深度学习 测试技术 API
Qwen3.5 中等规模模型系列正式开源:更强智能,更低算力
通义千问Qwen3.5发布四款中等规模多模态模型,支持256K原生上下文(可扩至1M)、201种语言及统一视觉语言训练。凭借Gated Delta+MoE混合架构与百万Agent强化学习,35B-A3B仅激活3B参数即超越旧旗舰,性能、效率与部署成本兼具。(239字)
5778 23
|
24天前
|
人工智能 安全 API
OpenClaw到底能做什么?OpenClaw两步部署(本地/云端)+Coding Plan API配置+9大真实场景+避坑指南
“花3小时部署好OpenClaw,却对着界面发呆——它到底能做什么?”——这是2026年无数“养虾人”(OpenClaw用户昵称)的共同困惑。正如参考文章中流传的AI圈段子:“90%的人部署OpenClaw的流程是:看到刷屏→买设备→安装配置→发现不知道自动化什么”。
554 4
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
以小胜大!千问Qwen3.5重磅发布,每百万Token仅0.8元
阿里巴巴开源全新一代千问Qwen3.5-Plus,全球最强开源大模型:3970亿参数、仅激活170亿,原生多模态,支持图文视频理解与视觉编程;推理吞吐量最高提升19倍,API价格低至0.8元/百万Token。
|
14天前
|
人工智能 并行计算 Linux
本地私有化AI助手搭建指南:Ollama+Qwen3.5-27B+OpenClaw阿里云/本地部署流程
本文提供的全流程方案,从Ollama安装、Qwen3.5-27B部署,到OpenClaw全平台安装与模型对接,再到RTX 4090专属优化,覆盖了搭建过程的每一个关键环节,所有代码命令可直接复制执行。使用过程中,建议优先使用本地模型保障隐私,按需切换云端模型补充功能,同时注重显卡温度与显存占用监控,确保系统稳定运行。
3040 9
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
除夕夜,国产顶流压轴上线,QWEN3.5多模态开源!
加我进AI讨论学习群,公众号右下角“联系方式” 文末有老金的 **开源知识库地址·全免费** --- ![Image](https://ucc.alicdn.com/pic/developer-ecology/p3shvhj26rigq_682da514f2d84d68857b797ebe2fbced.jpg) 除夕夜,老金我刚咬了一口韭菜鸡蛋饺子。 手机"叮"的一声,弹出个通知。 老金我瞄
|
2月前
|
机器学习/深度学习 自然语言处理 API
Qwen3.5:迈向原生多模态智能体
除夕夜,通义千问发布Qwen3.5-397B-A17B:全球首个原生多模态MoE大模型,总参3970亿、仅激活170亿参数,性能媲美万亿模型;支持201种语言、超强视觉理解与GUI智能体能力,已开源至GitHub与ModelScope。
3113 4
Qwen3.5:迈向原生多模态智能体