零配置部署顶级模型!函数计算一键解锁 Qwen3.5

简介: 阿里云开源千问Qwen3.5-397B-A17B,3970亿参数、仅激活170亿,性能登顶全球最强开源模型!依托函数计算FC,支持Serverless GPU一键部署,5分钟上线,显存降60%、吞吐提19倍,零门槛玩转多模态大模型。

就在最近,大模型圈再次迎来重磅炸弹!阿里巴巴开源了全新一代大模型——千问 Qwen3.5-397B-A17B,直接登顶全球最强开源模型宝座。

面对如此强大的模型,开发者们最关心的问题莫过于:“这么强的模型,部署起来会不会很麻烦?”

今天,我们就为大家带来一个“神器级解决方案——通过 函数计算 FC 实现一键部署 Qwen3.5,让顶级模型的计算力触手可及!

模型介绍

这次开源的 Qwen3.5-397B-A17B 可不是普通的模型升级,它在架构和性能上都实现了质的飞跃:

  • 性能超过万亿参数的 Qwen3-Max 模型,是目前全球最强开源模型,总参数 3970 亿,但激活参数仅 170 亿。采用创新的混合架构(线性注意力 Gated Delta Networks + 稀疏混合专家 MoE),在保持能力的同时优化了速度与成本。
  • 成本降低:部署显存占用降低 60%,推理效率大幅提升,最大推理吞吐量可提升至 19 倍
  • 全能选手:作为原生视觉 - 语言模型,在推理、编程、智能体能力与多模态理解上表现优异。语言支持从 119 种扩展至 201 种,全球通用。

部署痛点 vs. 函数计算解决方案

传统部署大模型,你通常需要面对:

  • 复杂的 GPU 环境配置
  • 繁琐的运维监控工作
  • 弹性伸缩困难

现在,有了函数计算 FC 模型服务,一切变得如此简单!

函数计算 FC 已同步接入 Qwen3.5 本次开源的模型,提供企业级部署方案。基于 Serverless GPU 架构,你无需关心底层基础设施,只需专注于模型本身的应用与调试。

一键部署 Qwen3.5-397B-A17B

  1. 准备一个 OSS Bucket, 使用 https://functionai.console.aliyun.com/old/template-detail?template=283 这个白屏化工具, 将 Qwen/Qwen3.5-397B-A17B 下载到 bucket 的一定目录中, 比如 Qwen/Qwen3.5-397B-A17B

    a. 先将这个白屏化工具部署起来, 等待部署成功

    image.png

    image.png

b. 编辑后端配置完毕以后, 将 Qwen/Qwen3.5-397B-A17B 下载对应 bucket 中的指定目录, 开始下载任务(注: 模型很大, 请耐心等待下载)
image.png

image.png

  1. FunModel 的自定义部署 ,选择好镜像以及计算资源, 填写好对应的启动命令, 既可以完成一键部署

image.png

image.png

启动命令:

vllm serve /mnt/my-model-scope/models/Qwen/Qwen3.5-397B-A17B --served-model-name Qwen/Qwen3.5-397B-A17B --port 9000 --trust-remote-code --gpu-memory-utilization 0.9 --max-model-len 262144 --tensor-parallel-size 16 --enable-auto-tool-choice --tool-call-parser qwen3_coder --reasoning-parser qwen3

3.耐心等待部署, 部署成功后, 即可以进行推理服务的调试

image.png

qwen3.5 模型市场

更多 qwen3.5 模型一键部署方案请参考(模型持续补充中)

image.png

总结

维度 传统方案 FunModel
部署时间 以天计 5分钟
技术门槛
运维以及迭代成本

依托 Serverless + GPU,天然提供了简单,轻量,0 门槛的模型集成方案,给个人开发者良好的玩转模型的体验,也让企业级开发者快速高效的部署、运维和迭代模型。
在阿里云函数计算,开发者可以做到:

  • 模型的快速部署上线:从原来的以周为单位的模型接入周期降低到 5 分钟,0 开发,无排期
  • 一键扩缩容,让运维不再是负担:多种扩缩容策略高度适配业务流量,实现“无痛运维”

在 AI 的时代浪潮下,模型作为 AI 的载体必然会不断迭代,开发者对模型部署的需求也会日益增多,函数计算 FC为模型部署和集成提供新范式,也会朝着“让人人成为开发者”的目标演进下去。

更多内容请参考

  1. FunModel快速入门
  2. FunModel 自定义部署
相关文章
|
7天前
|
人工智能 安全 Linux
【OpenClaw保姆级图文教程】阿里云/本地部署集成模型Ollama/Qwen3.5/百炼 API 步骤流程及避坑指南
2026年,AI代理工具的部署逻辑已从“单一云端依赖”转向“云端+本地双轨模式”。OpenClaw(曾用名Clawdbot)作为开源AI代理框架,既支持对接阿里云百炼等云端免费API,也能通过Ollama部署本地大模型,完美解决两类核心需求:一是担心云端API泄露核心数据的隐私安全诉求;二是频繁调用导致token消耗过高的成本控制需求。
4859 7
|
14天前
|
人工智能 JavaScript Ubuntu
5分钟上手龙虾AI!OpenClaw部署(阿里云+本地)+ 免费多模型配置保姆级教程(MiniMax、Claude、阿里云百炼)
OpenClaw(昵称“龙虾AI”)作为2026年热门的开源个人AI助手,由PSPDFKit创始人Peter Steinberger开发,核心优势在于“真正执行任务”——不仅能聊天互动,还能自动处理邮件、管理日程、订机票、写代码等,且所有数据本地处理,隐私完全可控。它支持接入MiniMax、Claude、GPT等多类大模型,兼容微信、Telegram、飞书等主流聊天工具,搭配100+可扩展技能,成为兼顾实用性与隐私性的AI工具首选。
20642 113
|
10天前
|
人工智能 API 网络安全
Mac mini × OpenClaw 保姆级配置教程(附阿里云/本地部署OpenClaw配置百炼API图文指南)
Mac mini凭借小巧机身、低功耗和稳定性能,成为OpenClaw(原Clawdbot)本地部署的首选设备——既能作为家用AI节点实现7×24小时运行,又能通过本地存储保障数据隐私,搭配阿里云部署方案,可灵活满足“长期值守”与“隐私优先”的双重需求。对新手而言,无需复杂命令行操作,无需专业技术储备,按本文步骤复制粘贴代码,即可完成OpenClaw的全流程配置,同时接入阿里云百炼API,解锁更强的AI任务执行能力。
6567 2
|
11天前
|
人工智能 安全 前端开发
Team 版 OpenClaw:HiClaw 开源,5 分钟完成本地安装
HiClaw 基于 OpenClaw、Higress AI Gateway、Element IM 客户端+Tuwunel IM 服务器(均基于 Matrix 实时通信协议)、MinIO 共享文件系统打造。
7938 6
|
13天前
|
人工智能 JavaScript API
保姆级教程:OpenClaw阿里云/本地部署配置Tavily Search skill 实时联网,让OpenClaw“睁眼看世界”
默认状态下的OpenClaw如同“闭门造车”的隐士,仅能依赖模型训练数据回答问题,无法获取实时新闻、最新数据或训练截止日期后的新信息。2026年,激活其联网能力的最优方案是配置Tavily Search技能——无需科学上网、无需信用卡验证,每月1000次免费搜索额度完全满足个人需求,搭配ClawHub技能市场,还能一键拓展天气查询、邮件管理等实用功能。
7671 5
|
6天前
|
JavaScript Linux API
保姆级教程,通过GACCode在国内使用Claudecode、Codex!
保姆级教程,通过GACCode在国内使用Claudecode、Codex!
3632 1
保姆级教程,通过GACCode在国内使用Claudecode、Codex!