一键部署开源Qwen3并集成到钉钉、企业微信

简介: Qwen3系列模型现已正式发布并开源,包含8款“混合推理模型”,其中涵盖两款MoE模型(Qwen3-235B-A22B与Qwen3-30B-A3B)及六个Dense模型。阿里云计算巢已支持Qwen3-235B-A22B和Qwen3-32B的私有化部署,用户可通过计算巢轻松完成部署,并借助AppFlow集成至钉钉机器人或企业微信。文档详细介绍了从模型部署、创建应用到配置机器人的全流程,帮助用户快速实现智能助手的接入与使用。

近期,Qwen3正式发布并开源全部8款「混合推理模型」,此次开源包括两款MoE模型;Qwen3-235B-A22B,已经Qwen3-30B-A3B;以及六个Dense模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B和Qwen3-0.6B。

目前阿里云计算巢已经支持了Qwen3-235B-A22B和Qwen3-32B,通过计算巢私有化部署您可以轻松完成Qwen3开源模型的部署,并通过AppFlow集成到您的钉钉机器人或企业微信。

部署Qwen3

计算巢部署

  1. 点击链接访问阿里云计算巢服务部署页面,根据您想要使用的模型参数规模选择适合的机器资源。

  1. 点击下一步:确认订单,确认您的订单并点击立即创建。等待您的实例创建完成。
  2. 等待部署完成,可以在计算巢页面获取到您的API_KEY和模型名称

创建AppFlow连接流集成

集成到钉钉机器人

创建钉钉应用

  1. 访问钉钉开放平台,点击上部应用开发。

  1. 在应用开发的左侧导航栏中,点击钉钉应用,在钉钉应用页面右上角点击创建应用

  1. 创建应用面板,填写应用名称应用描述,上传应用图标,完成后点击保存

查看应用 Client ID 和 Client Secret

在左侧菜单选择凭证与基础信息,复制 Client ID 和 Client Secret,用于下一步创建连接流。

创建消息卡片

钉钉机器人通过卡片消息支持流式返回结果,您需要创建卡片模板供消息发送使用。

  1. 访问卡片平台,点击新建模板

  1. 在创建模板输入框,填入模板信息。

  1. 在模拟编辑页面,保存发布模板。然后点击返回模板列表页面。

  1. 复制模板ID,用于创建钉钉连接流使用。

授予应用发送卡片消息权限

创建卡片后,您需要给应用授予发送卡片消息的权限。

  1. 访问钉钉应用列表。找到刚刚创建的应用,点击应用名称进入详情页面。
  2. 在左侧菜单选择开发配置 > 权限管理,在左侧搜索框分别输入Card.Streaming.WriteCard.Instance.Write,并在操作列点击申请权限

创建AppFlow连接流

  1. 使用AppFlow模版创建连接流。
  2. 点击添加钉钉鉴权凭证,填写上面获取的钉钉应用Client IDClient Secret

  1. 点击计算巢LLM推理服务鉴权凭证,点击添加
  2. 选择并填写您刚刚创建的计算巢实例即可。

  1. 填写您在计算巢部署的模型名称
  2. 填写您的钉钉卡片模版ID
  3. 基本信息配置向导页,填写连接流名称连接流描述(建议保持默认),完成后点击下一步
  4. 界面提示流程配置成功,复制 WebhookUrl,点击发布

配置钉钉机器人

  1. 访问钉钉应用列表。找到刚刚创建的应用,点击应用名称进入详情页面。
  2. 添加应用能力页面,找到机器人卡片,点击添加

  1. 在机器人配置页面,打开机器人配置开关,您可以参考下图完成配置。消息接收模式请选择HTTP模式消息接收地址为刚刚的 WebhookUrl。然后点击发布

发布应用版本

应用创建完成后,如果需要将应用供企业内其他用户使用,需要发布一个版本。

  1. 点击应用开发,在钉钉应用页面,点击目标应用。
  2. 在目标应用开发导航栏,点击版本管理与发布,在版本管理与发布页面,点击创建新版本。进入版本详情页面,输入应用版本号版本描述信息,选择合适的应用可见范围,完成后点击保存。并在弹窗中点击直接发布
  3. 完成后,在钉钉中搜索应用或将应用加入群聊即可与DeepSeek应用进行对话了
  4. 在钉钉群中@机器人,进行交流互动

集成到企业微信

创建企业微信应用

  1. 访问企业微信开发者中心,扫码登录,点击立即创建。根据指引选择以企业身份创建企业内部应用
  2. 在顶部导航栏中,选择应用管理,在应用页面下半部分点击创建应用
  3. 创建应用页面,填写应用名称应用介绍,上传应用 logo,选择可见范围,完成后点击创建应用

  1. 在应用详情页面,复制 AgentID和 Secret,用于下一步创建连接流。

   

  1. 在顶部导航栏中,选择我的企业,在企业信息页面,复制企业 ID,用于下一步创建连接流。

创建AppFlow连接流

  1. 使用AppFlow模版创建连接流。

  1. 点击企业微信鉴权,下拉选择连接凭证列表或点击添加新凭证。
  2. 创建凭证对话框中,设置一个自定义凭证名称,填入之前获取的企业微信的企业ID、应用 AgentId 和 Secret。保存AppFlow生成的 Token 和 EncodingAESKey到本地、保存IP白名单到本地。点击完成
  3. 点击计算巢LLM推理服务鉴权凭证,点击添加。选择并填写您刚刚创建的计算巢实例即可。

  1. 填写您在计算巢部署的模型名称
  2. 基本信息配置向导页,填写连接流名称连接流描述(建议保持默认),完成后点击下一步
  3. 界面提示流程配置成功,复制 WebhookUrl,点击发布

配置企业微信应用

配置API接收消息

  1. 访问企业微信应用列表。找到刚刚创建的应用,点击应用名称进入详情页面。
  2. 在应用详情页面,找到接收消息卡片,点击设置API接收

  1. API接收消息页面,您可以参考下图完成配置,然后点击保存
  • URL填入上一步复制的 WebhookUrl

如果之前未保存WebhookUrl,可访问AppFlow连接流页面,在操作列点击webhookUrl进行查看。

  • Token EncodingAESKey 填入上一步复制的值。

如果之前未保存,可访问AppFlow连接凭证页面,在公共连接器 > 企业微信中,找到刚刚配置的凭证,点击操作列的编辑从凭证中获取。

域名主体校验未通过如何解决?

当您在企业微信后台配置 API 接收消息时,报错提示“域名主体校验未通过,需配置备案主体与当前企业主体相同或有关联关系的域名”。这通常是由于企业微信的相关限制所引起的。为解决此问题,您需要配置一个企业自有域名。

  • 如果您的域名已在阿里云备案,您可以参考如下步骤创建一个二级域名作为企业自有域名。
  1. 访问AppFlow域名管理页面,单击添加域名按钮,进入添加域名页面,填入可用的二级域名,如airobot.example.com

  1. 参考CNAME 记录,将该二级域名解析到上一步的记录值
  2. 解析配置完成后,返回创建域名页面,点击提交
  3. 使用该二级域名替换API接收消息URL(即已经填写的WebhookUrl)中的主机名。
  • 如果您的域名没有在阿里云备案,您可以参考如下步骤,将API接收消息中的URL配置为您的企业自有域名,并在企业自有域名对外提供服务的Nginx上配置转发规则,将请求转发到连接流的WebhookUrl。
  1. AppFlow连接凭证页面编辑企业微信的连接凭证。

  1. 点击下一步,勾选内网代理

  1. 首次勾选内网代理时,会弹出AppFlow服务关联角色授权创建页面,请您确认并授权。

  • 如果您没有在阿里云备案的可信主体域名,同时也没有Nginx代理,可以通过点击部署Nginx代理实例一键自动为您部署并配置Nginx代理。按控制台提示直接确认订单或更改您期望的配置下单,等待部署完成即可。部署过程通常耗时1-3分钟,请刷新列表并耐心等待。
  • 部署完成后,点击下拉框选择计算巢实例,用计算巢实例Host替换API接收消息的URL(即已经填写的WebhookUrl)中的主机名,复制IP白名单并添加到企业可信IP中,点击保存,完成配置。

配置企业可信IP

  1. 在应用详情页面,在页面下方开发者接口找到企业可信IP卡片,点击配置

  1. 在企业可信IP对话框,粘贴复制的 IP 地址,然后点击确定

“以下IP属于第三方”报错如何解决?

  1. 修改 AppFlow 中配置的企业微信的连接凭证,
  2. 修改内容:在内网代理配置页面选择使用可信主体域名 > ECS实例使用自有Nginx代理 > ECS实例,选择对应地域和实例, 点击保存。

  1. 将代理机器的 IP 添加到企业微信可信 IP。访问企业微信应用列表,进入应用详情页面,在页面下方开发者接口找到企业可信IP卡片,点击配置

如果您有自己的非阿里云的机器,您可以将自有机器托管到阿里云,并使用托管机器进行请求转发,解决可信 IP 的问题:

  1. 在您的非阿里云服务器中找一台可以访问公网的机器,按照文档安装云助手 。
  2. 修改 AppFlow 中配置的企业微信的连接凭证,
  3. 修改内容:在内网代理配置页面选择使用可信主体域名 > ECS实例使用自有Nginx代理 > ECS实例,选择对应托管地域和托管实例, 点击保存

4. 将代理机器的 IP 添加到企业微信可信 IP。访问企业微信应用列表,进入应用详情页面,在页面下方开发者接口找到企业可信IP卡片,点击配置

测试应用

你可以在企业微信中搜索应用并发送消息,查看效果。

  1. 在企业微信顶部搜索框搜索应用名称,点击应用进入聊天。

相关实践学习
2048小游戏
基于计算巢&ECS云服务器快速部署,带您畅玩2048小游戏。
相关文章
|
5天前
|
人工智能 文件存储 数据中心
Ollama部署本地大模型并通过Infortress APP远程访问保姆级教程
本文介绍如何快速上手本地大模型部署工具Ollama及AI远程访问工具Infortress。通过Ollama,开发者可轻松部署如Llama、Deepseek等主流开源模型,仅需几行命令即可完成安装与运行。结合Infortress,用户能实现对本地大模型的远程访问,支持多设备无缝对接,同时提供便捷的模型切换与知识库管理功能。Infortress更兼具NAS软件特性,成为个人AI数据中心的理想选择。
|
16天前
|
JSON 缓存 并行计算
NVIDIA 实现通义千问 Qwen3 的生产级应用集成和部署
阿里巴巴近期开源了通义千问Qwen3大语言模型(LLM),包含两款混合专家模型(MoE)235B-A22B与30B-A3B,以及六款稠密模型(Dense)从0.6B到32B不等。开发者可基于NVIDIA GPU使用TensorRT-LLM、Ollama、SGLang、vLLM等框架高效部署Qwen3系列模型,实现快速词元生成和生产级应用开发。
|
18天前
|
人工智能 运维 Serverless
一键部署 Qwen3! 0 代码,2 种方式全新体验
Qwen3 正式发布并开源 8 款混合推理模型,包括两款 MoE 模型(Qwen3-235B-A22B 和 Qwen3-30B-A3B)及六个 Dense 模型。这些模型支持 119 种语言,在代码、数学等测试中表现优异,并提供思考与非思考两种模式。依托阿里云函数计算 FC 算力,FunctionAI 平台支持模型服务和应用模板部署,适用于多种场景。用户可通过 Serverless 架构快速构建高弹性、智能化应用,显著降低开发成本,提升效率。试用链接及详细文档已提供,欢迎体验。
|
19天前
|
Kubernetes 调度 开发者
qwen模型 MindIE PD分离部署问题定位
使用MindIE提供的PD分离特性部署qwen2-7B模型,使用k8s拉起容器,参考这个文档进行部署:https://www.hiascend.com/document/detail/zh/mindie/100/mindieservice/servicedev/mindie_service0060.html,1个Prefill,1个Decode。 最后一步测试推理请求的时候,出现报错:model instance has been finalized or not initialized。
93 1
|
24天前
|
存储 Kubernetes 异构计算
Qwen3 大模型在阿里云容器服务上的极简部署教程
通义千问 Qwen3 是 Qwen 系列最新推出的首个混合推理模型,其在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。
|
4天前
|
JavaScript 搜索推荐 前端开发
通义灵码2.5智能体模式联合MCP:打造自动化菜品推荐平台,实现从需求到部署的全流程创新
本项目利用通义灵码2.5的智能体模式与MCP服务,构建在线点餐推荐网站。基于Qwen3模型,实现从需求到代码生成的全流程自动化,集成“今天吃什么”和EdgeOne MCP服务,提供个性化推荐、偏好管理等功能。技术架构采用React/Vue.js前端与Node.js后端,结合MCP工具链简化开发。项目涵盖功能测试、部署及未来扩展方向,如餐厅推荐、语音交互等,展示高效开发与灵活扩展能力。
|
19天前
|
人工智能 并行计算 监控
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
本文详细介绍了在AMD硬件上构建大型语言模型(LLM)推理环境的全流程。以RX 7900XT为例,通过配置ROCm平台、部署Ollama及Open WebUI,实现高效本地化AI推理。尽管面临技术挑战,但凭借高性价比(如700欧元的RX 7900XT性能接近2200欧元的RTX 5090),AMD方案成为经济实用的选择。测试显示,不同规模模型的推理速度从9到74 tokens/秒不等,满足交互需求。随着ROCm不断完善,AMD生态将推动AI硬件多元化发展,为个人与小型组织提供低成本、低依赖的AI实践路径。
190 1
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
|
1天前
|
传感器 人工智能 自然语言处理
火热邀测!DataWorks数据集成支持大模型AI处理
阿里云DataWorks数据集成新增大模型AI处理功能,支持在数据同步中无缝调用通义千问等AI模型,实现文本翻译、情感分析、摘要生成等功能。适用于电商客服、智能汽车、供应链、医疗、金融、法律及教育等多个场景,大幅提升数据处理效率与洞察深度。用户可通过自然语言配置,快速完成高级数据分析与处理,无需额外部署调试。立即申请测试资格,体验智能化数据处理!
|
2天前
|
人工智能 JSON 自然语言处理
多快好省,Qwen3混合部署模式引爆MCP
本文介绍了MCP(Model Context Protocol)与Qwen3模型的结合应用。MCP通过统一协议让AI模型连接各种工具和数据源,类似AI世界的“USB-C”接口。文中详细解析了MCP架构,包括Host、Client和Server三个核心组件,并说明了模型如何智能选择工具及工具执行反馈机制。Qwen3作为新一代通义千问模型,采用混合专家架构,具备235B参数但仅需激活22B,支持快速与深度思考模式,多语言处理能力覆盖119种语言。文章还展示了Qwen3的本地部署流程,以及开发和调试MCP Server与Client的具体步骤。
多快好省,Qwen3混合部署模式引爆MCP
|
12天前
|
人工智能 弹性计算 智能设计
🎨 三步打造AI创意工坊 | 通义万相图像生成服务极速部署指南
🚀 从零到大师 | 通义万相智能创作系统部署指南