在之前的实操课中,我们学习了阿里云百炼平台中的诸多功能,并借助了阿里云百炼平台完成了一系列应用制作、模型微调等课程。
那么在这次实操课程中,我们将一起深入探索新发布的Qwen3系列模型,以及强大的阿里云百炼(Bailian)一站式大模型服务平台,从零开始共同构建一个功能丰富且实用的英语学习智能体——“英语老师妮娜”。
课程目标
通过本次课程,我们的核心目标是帮助大家:
- 深入理解 Qwen3 大模型家族的关键特性、不同尺寸模型的适用场景及其相较于前代模型的优势。
- 掌握阿里云百炼平台中 MCP 的核心理念、集成方式及其在智能体与工作流中的实际应用。
- 通过“英语老师妮娜”案例,体验并实践从 Agent 应用构思到功能实现的全过程,掌握将前沿 AI 技术落地为具体应用的方法。
面向学员
本次课程主要面向以下人群:
- 对大型语言模型(LLM)应用开发感兴趣的开发者。
- 希望了解如何利用 AI 技术构建创新产品的产品经理。
- 对 AI 技术充满热情,希望动手实践的 AI 爱好者。
- 以及其他希望了解和掌握阿里云百炼平台及 Qwen3 模型应用能力的技术从业者。
无论大家是技术新手还是有一定经验的开发者,都能通过本次课程获得实践经验和知识提升。
课程收获
完成本次课程后,大家将能够:
- 清晰阐述 Qwen3 大模型系列的主要能力和适用场景。
- 解释 MCP 的核心概念及其在增强 AI 应用能力方面的重要性。
- 熟练使用阿里云百炼平台创建和配置智能体应用及工作流应用。
- 掌握在阿里云百炼智能体中集成工作流、MCP 服务和插件等多种技能的方法。
- 独立完成一个类似“英语老师妮娜”的功能丰富的 AI 应用的原型搭建。
- 获得将 AI 技术应用于实际场景解决问题的思路和实践经验。
核心案例:“英语老师妮娜”功能流程概览
为了让大家对接下来的学习内容和目标有一个更清晰、更具体的认识,我们首先来看一下贯穿本文的核心案例——“英语老师妮娜”——她所能实现的完整学习与分享流程是怎样的。
- 互动与基础学习:
大家可以像和真人老师一样,用自然的英语与“妮娜”进行对话。当大家提出学习新单词的请求时,“妮娜”能够理解大家的意图,并自动调用一个我们预先设计好的名为 word_card_creator 的工作流(Workflow)。这个工作流会负责生成一张包含单词释义、发音提示、场景例句、甚至相关配图提示词的综合性学习卡片。
- 深度探究:
在获得基础单词卡片后,如果大家希望进行更深层次的学习,例如对某个单词(比如 "flower")进行结构化的分析(包括词根词缀、同义词反义词、不同语境下的细微差别等),可以向“妮娜”发出进一步的请求。“妮娜”此时会调用一项MCP 服务——例如名为“结构化思考”(Sequential Thinking)的服务。该服务专门用于引导模型进行更系统化、多维度的信息组织和内容生成,从而满足大家深度学习的需求。
- 学习成果存档:
学习过程中产生的有价值的信息,如单词卡片、结构化分析笔记等,大家可以指令“妮娜”将其保存。这时,“妮娜”会调用另一个MCP 服务——Notion MCP。该服务负责处理与大家的 Notion 账号的连接与数据写入,将指定的学习内容(例如关于 "flower" 的卡片)便捷地存入大家的个人知识库中,实现了学习成果的有效沉淀与管理。
- 便捷分享:
当大家希望将保存在 Notion 中的学习页面分享给朋友或学习伙伴时,只需告知“妮娜”。她将调用一个插件——例如 generate_qrcode 插件,为指定的 Notion 页面生成一个二维码。他人通过扫描这个二维码,即可轻松完成学习内容的分享学习。
“英语老师妮娜”的这一完整流程,生动地展示了大型语言模型(Qwen3)的核心能力如何与阿里云百炼平台提供的工作流编排、MCP 服务调用、插件集成等多种技术组件无缝结合,并在一个统一的智能体(Agent)框架下协同运作,最终实现一个超越简单问答、具备连贯业务逻辑和丰富交互能力的 AI 应用。接下来的内容,我将和大家一起,详细剖析实现这一目标所需的技术基础和实践步骤。
第一部分:启程——Qwen3、MCP与阿里云百炼平台驱动的智能应用新范式
在本部分,我们将重点介绍构建“英语老师妮娜”所依赖的核心技术和平台基础:首先是强大的 Qwen3 大模型,然后是 MCP 的核心理念,最后我们会看到阿里云百炼平台是如何将这些能力整合,为我们的应用开发提供土壤的。
1.1 Qwen3 大模型家族能力速览与场景洞察
好,那我们首先就来深入了解一下驱动‘妮娜’的核心大脑——最新的 Qwen3 大模型家族。
Qwen 系列大模型相信很多朋友已经有所了解,Qwen3 作为这个系列的最新一代,无论在性能还是能力上都有了显著的提升。大家需要知道,Qwen3 不是单一模型,而是一个庞大的模型家族,提供了从稠密模型 (Dense Models) 到混合专家模型 (Mixture-of-Experts, MoE) 的全系列选择,这样我们就可以根据不同的需求和预算进行选择。
我们来具体看一下 Qwen3 的主要成员:
- MoE 模型: 比如旗舰级的 Qwen3-235B-A22B,它拥有高达 2350 亿的总参数量,但在实际推理时,激活的参数量大约是 220 亿。还有像 Qwen3-30B-A3B 这样的模型,总参数 300 亿,激活参数仅 30 亿。MoE 架构的优势在于,它能在巨大的模型规模下,通过仅激活一部分‘专家’网络来高效处理任务,特别适合处理极其复杂的推理和生成任务,同时也能帮助我们在成本和效率上找到平衡点。
- 稠密模型: Qwen3 也提供了大家可能更熟悉的稠密模型,尺寸覆盖很广,例如 Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B, 甚至还有 Qwen3-0.6B。稠密模型的特点是所有参数在推理时都会参与计算,通常在各种任务上表现更全面和稳定。
除了模型尺寸的多样性,Qwen3 还带来了几个关键特性的显著提升,这些都对我们构建 AI 应用非常有帮助:
- 更强的推理能力: 尤其是在数学、代码生成、逻辑推理方面有重大突破。
- 优异的指令遵循与 Agent 能力: 能更精确地理解和执行大家给出的复杂指令,并且能更好地与外部工具(比如我们后面会讲到的插件、MCP服务)进行高效交互,这对于构建智能体应用至关重要。Qwen3 对 MCP 的支持也得到了进一步加强。
- 领先的多语言能力: 支持超过 100 种语言和方言,如果大家的应用需要面向全球用户,这一点非常有价值。
- 独特的混合思维模式 (Hybrid Thinking Modes): 这是 Qwen3 的一个创新点。模型可以在‘思考模式’(进行逐步推理,适合复杂问题)和‘非思考模式’(提供快速响应,适合简单交互)之间无缝切换。这让我们可以在任务的复杂度来灵活调整,平衡推理深度和响应速度。
那么,面对这么多不同尺寸的模型,我们该如何选择呢?这主要取决于大家具体的应用场景和需求:
- 大型复杂任务: 如果大家的应用需要顶尖的性能,要处理复杂的逻辑、数学、代码,或者进行高质量的内容创作,那么像 Qwen3-235B-A22B 这样的 MoE 大模型会是我们的首选。
- 特定领域微调: 如果大家的应用场景需要针对特定行业知识进行微调,中等规模的模型(如 14B, 8B)可能在性能和训练成本之间提供了良好的平衡。
- 端侧应用与边缘计算: 对于需要在手机、物联网设备等资源受限环境下运行的应用,Qwen3-4B, Qwen3-1.7B, Qwen3-0.6B 这些小尺寸模型经过优化,能够在端侧提供令人惊讶的智能体验。
- 成本敏感型应用: 当成本是大家重要的考量因素时,选择参数量更小的模型,或者像 Qwen3-30B-A3B 这样激活参数很少的 MoE 模型,可以在保证相当不错效果的同时,显著降低推理成本。
1.2 核心理念科普——MCP 是什么?
MCP(Model Context Protocol,模型上下文协议)是一种先进的开放协议。它的核心使命是为大型语言模型(LLM)应用与外部的各类数据源、工具及服务之间搭建起一座桥梁,实现它们之间的无缝集成。如果说HTTP和SMTP是特定领域信息交换的规范,那么MCP则致力于成为LLM应用与外部世界交互的通用标准。
1.2.1 MCP 的核心概念:模型上下文 (Model Context)
MCP理论的核心在于“模型上下文”(Model Context)。这指的是大型语言模型(LLM)在运行和执行任务过程中所需要调用的所有外部信息和可用工具的总和。
为了让LLM能够动态地访问和集成这些外部资源,MCP通过定义标准化的接口和协议来实现以下几个方面的连接:
- 外部数据源:允许LLM接入并利用如数据库、各类API接口、以及文档库等外部数据。这使得LLM可以获取实时的或历史的数据作为决策和生成的依据。
- 工具与服务:赋予LLM调用外部工具(如计算器、代码解释器、搜索引擎)和第三方服务(如预订系统、内容推荐服务)的能力,从而极大地扩展LLM自身的功能范围。
- 上下文管理:支持动态地维护LLM在持续对话或任务执行中的上下文信息,确保交互的连贯性和信息的一致性。
1.2.2 MCP 的架构
MCP的整体架构主要由以下四个关键组成部分构成:
- 主机 (Host):
- 定义:主机是指那些期望从服务器获取数据或利用其功能的人工智能应用程序。例如,一个集成开发环境(IDE)、一个智能聊天机器人或者其他类型的AI应用。
- 职责:主机负责初始化和管理客户端,处理用户授权流程,以及对来自不同源的上下文信息进行聚合和管理。
- 客户端 (Client):
- 定义:客户端在主机与服务器之间扮演着桥梁的角色。它与服务器之间通常维持着一对一的连接。
- 职责:客户端的核心任务包括消息的路由与分发、可用能力的管理、与服务器进行协议版本的协商,以及处理订阅管理等。它致力于确保主机和服务器之间的通信清晰、安全且高效。
- 服务器 (Server):
- 定义:服务器是提供外部数据和工具的具体组件。
- 职责:它通过提供各种工具、资源和预设的提示模板,为大型语言模型提供额外的上下文信息和功能支持。例如,一个服务器可以封装对Gmail API的调用能力,或者提供连接到Slack等外部服务的接口。
- 基础协议 (Base Protocol):
- 定义:基础协议是MCP的基石,它明确定义了主机、客户端和服务器这三者之间应该如何进行通信。
- 职责:这套协议详细规定了消息的格式标准、组件的生命周期管理机制,以及数据传输的具体方式等。
1.3 阿里云百炼平台——MCP 实践的沃土
理解了 Qwen3 和 MCP 之后,我们还需要一个强大的平台来将这些技术落地。这个平台就是我们今天实操的主战场——阿里云百炼(Bailian)。
阿里云百炼,大家可以把它理解为一个一站式的大模型服务平台。它为我们开发者提供了从模型选择(包括 Qwen3 系列)、应用构建、模型调优到服务部署的全链路能力。它集成了丰富的 AI 模型和便捷的应用开发工具,是我们实践和落地 MCP 理念、构建企业级 AI 应用的理想环境。
阿里云百炼平台的核心能力,和我们今天的课程息息相关的主要有这几块:
|
1.4 阿里云百炼平台中的 MCP 集成与服务
阿里云百炼平台通过它的智能体框架、工作流引擎、插件机制以及对 Qwen3 等模型 Agent 能力的深度集成,为 MCP 的应用提供了强大的支撑。
- 阿里云百炼平台提供了一个‘MCP 服务广场’,里面预置了多种官方开发的、可以直接使用的 MCP 服务。这些服务通常封装了与常见第三方应用或 API 的交互逻辑,比如连接 Notion、Github、高德地图 (Amap Maps)、网页抓取工具 (Firecrawl) 等。我们可以直接选用这些服务。
- 在我们构建智能体应用时,可以将这些 MCP 服务像‘技能’一样,直接添加到智能体的能力列表中。然后,我们的智能体就可以根据用户的对话和任务需求,自主判断什么时候需要调用哪个 MCP 服务来帮忙。
- 如果我们选择构建工作流应用,也可以在流程中插入‘MCP 节点’。与智能体不同的是,在工作流中,我们需要明确指定调用哪个 MCP 服务的哪个具体工具(一个 MCP 服务可能包含多个工具),并且需要我们自己手动配置好输入参数和输出参数如何传递。
- 如果官方预置的服务不能满足大家的需求,阿里云百炼还支持我们将自己开发或者从开源社区找到的 MCP 服务部署上来。我们需要按照一定的规范(比如 Node.js 服务需要发布到 npm,Python 服务需要发布到 PyPI),然后阿里云百炼会帮助我们将它部署到阿里云的函数计算(FC)上,之后我们就可以像使用官方服务一样,在智能体或工作流里调用我们自己的 MCP 服务了。
综上,另结合我们的‘英语老师妮娜’案例,大家可以更清晰地看到,在阿里云百炼平台上利用 MCP 能力主要有两条路径:
路径一:MCP 能力在“工作流”中的应用 (以 word_card_creator 为例)
- 在这个工作流里,大家会发现,我在这里把MCP的某个工具做成了一个节点。这是第一种用法,即:把MCP当作“插件”一样使用,但需要明确定义输入参数的内容(因为其本质上还是个function),为了演示方便,我在这里就把参数写死了。
路径二:MCP 服务在“智能体”中的直接搭载 (以“妮娜”的增强技能为例)
现在,我们再回到‘英语老师妮娜’的智能体配置界面。大家注意看‘技能’配置这部分,这里我们就明确地挂载了几个MCP 服务,具体这两个MCP代表了什么意思,我们放到后面来讲。
1.6 小结:组件协同与平台优势
所以,总结一下第一部分的内容。通过阿里云百炼平台,我们可以将多种强大的 AI 技术组件像搭积木一样组合起来,构建出像‘英语老师妮娜’这样功能丰富的应用:
- Qwen3 模型是核心的“大脑”,提供了强大的理解、推理和生成能力。
- 工作流则像一个“自动化生产线”,负责执行那些步骤相对固定、需要稳定输出的核心内容生成任务。
- MCP 服务就像是给智能体配备的‘专业工具箱’或者‘外部接口’,让它能完成更复杂的操作或与外部系统交互。
- 插件则提供了一些轻量级、标准化的“小工具”,方便调用。
所有这些组件,都在我们创建的‘英语老师妮娜’这个智能体的统一框架下,被智能地调度和协同使用。阿里云百炼的智能体框架,正是发挥 Qwen3 模型强大能力(尤其是它的理解、生成和 Agent 特性)的理想载体,使得我们能够相对轻松地实现从用户意图理解、任务规划、工具调用到最终结果呈现的复杂 AI 应用逻辑。
第二部分:实战——从零构建“英语老师妮娜”智能助手并了解应用发布
欢迎来到第二部分!在这一部分,我们将卷起袖子,真正开始动手实践。我会带着大家一步步地在阿里云百炼平台上,从零开始创建我们的‘英语老师妮娜’智能体,并为她装配上各种强大的技能。最后,我们还会简单了解一下如何将我们的应用发布出去。
在开始前,我再给大家串一下整个智能体的设计,除Agent本体外,此次还使用了MCP、工作流、插件这三大类组件。其中,Agent本体负责任务的调度、信息的共享。MCP、工作流、插件负责专项任务的执行与结果反馈。其中,这三类组件的侧重点各不相同。像MCP主要是跟外部资源做交互,工作流和插件主要负责主干内容生成和辅助内容分发。同时在实际搭建过程中的注意点也不一样,比如MCP你需要考虑如何准确调用其工具,而工作流更关心内容生成的质量等等,这些我们实践过程中再来讲。
2.1 创建核心交互智能体 “英语老师妮娜”
首先,我们需要为‘妮娜’创建一个‘家’,也就是一个基础的智能体应用。大家可以跟着我的操作步骤来(或者如果大家已经熟悉阿里云百炼平台,可以自行操作):
登录阿里云百炼控制台:(https://bailian.console.aliyun.com/),点击应用按钮。
在左侧导航栏找到并点击“应用管理”。
点击页面右上角的“新增应用”按钮。
在弹出的窗口中,选择“智能体应用”,然后点击“立即创建”。
给我们的应用起个名字,比如就叫“英语老师妮娜”。
同样,别忘了在 Prompt 上方的‘模型选择’部分,我们选择 Qwen3-235B-A22B (或其他你想用的模型)。
在配置界面的‘Prompt’区域,我们需要为妮娜设定她的角色、背景信息和各项能力设定、约束等。
# Role: 英语老师妮娜 (English Teacher Nina) ## 描述 (Description): 我是妮娜,一位热情、耐心的AI英语老师。我深刻理解学习新语言既有挑战也充满乐趣。我的教学风格注重实用和有趣,喜欢用联想、故事和生活场景帮学生记单词、懂语法。我相信每个学生都有自己的学习节奏和方式,所以我致力于提供个性化的学习帮助。除了词汇和语法,我也了解一些英语国家的文化,很乐意和你分享。我的目标是让学英语不再枯燥,帮你建立信心和兴趣,轻松提高英语水平。 ## 核心行为准则 (Core Behavioral Guideline): - 严格遵循用户的明确指令。除非用户要求连贯调用插件或连续执行多个动作 (例如:“学习'apple'这个词然后帮我保存到Notion”),否则遵循用户指示执行单步操作。 ## 核心能力 (Core Abilities): - 处理中文用户输入,以识别学习请求或 Notion 相关任务。 - 使用中文单词调用 `word_card_creator` 工具以获取英文对应词、定义、图片链接等信息。 - 为 Notion 相关任务调用 `notion` 插件。 - **页面查询 (Page Query by Name):** 当用户提供 Notion **页面名称** 作为目标位置时,妮娜 **必须** 调用 `notion` 插件的页面搜索功能,根据名称查找对应的页面,并获取其 `block_id`。 - **处理查询结果**: - 如果**成功找到唯一**匹配的页面,则使用其 `block_id`。 - 如果找到**多个同名**页面,妮娜需向用户**列出可能的选项**(如果插件支持返回足够信息)并请求用户进一步明确。 - 如果**未找到**任何匹配页面,妮娜需告知用户未找到,并请用户确认页面名称或提供 `block_id`。 - **保存到 Notion (追加内容):** 当用户**明确指令**要将单词卡片内容追加保存到 Notion 时: - 1. **确定目标位置 (`block_id`)**: - 首先,妮娜确认用户是否在指令中指定了目标位置(页面名称或 `block_id`)。 - **若未指定**,妮娜必须主动询问用户:“你想把这个保存到 Notion 的哪个页面或区块呢?请提供页面名称或 ID。” - **若用户提供了页面名称**,妮娜**必须**先调用上述的 **“页面查询”** 功能,根据名称搜索并获取 `block_id`。处理查询结果(如未找到或找到多个需与用户交互澄清)。 - **若用户直接提供了 `block_id`**,则直接使用该ID。 - **必须**在获得一个**明确且有效**的 `block_id` 后才能继续下一步。这个 `block_id` **必须**明确传递给 `notion` 插件的追加功能。 - 2. **准备内容列表 (用于 `children`)**: 当接收到保存指令并确定目标 `block_id` 后,妮娜 **必须** 从当前对话上下文中提取先前已完整展示的“单词卡片输出格式”中的 **全部字段信息**。这明确包括以下所有内容: * 图片链接 (从`word_card_creator`获取的URL) * 英文单词 * 中文释义 * 英文释义 * 近义词/同义词 * 反义词 * 示例句子 * 联想小故事 妮娜需要将这些信息构造成一个结构化的列表,确保 **上述每一个字段都作为一个独立的项** 包含在传递给`notion`插件的`children`参数中。每一项都应清晰标识其内容(例如,使用字段名作为描述或键)。如果原始单词卡片中的某个字段内容为空(例如 `word_card_creator` 未返回反义词),则在为此字段构造列表项时,其对应的值应设置为空字符串或明确标记为“无”,但该字段的条目仍应存在于结构中,以确保`notion`插件能预期到所有可能的字段。 - 3. **调用插件进行追加**: 妮娜调用 `notion` 插件的追加内容功能(如 Append Block Children),清晰地传入确定的 `block_id` 和结构化内容列表 (`children`)。 - **插件责任**: `notion` 插件负责接收 `block_id` 和结构化的内容列表,并将其转换为 Notion API 所需格式执行追加。 - 调用 `generate_qrcode` 插件。 - **分享 Notion 内容:** 当用户**明确指令**要分享 Notion 内容(生成二维码)时: - 1. **确定目标链接**: 妮娜首先确认要生成二维码的 Notion 页面链接。**若用户指令中未指定链接,妮娜必须主动询问用户:“你想为哪个 Notion 页面生成分享二维码呢?请提供页面的链接地址。”** - 2. **调用插件生成**: 在获取到明确的链接后,调用 `generate_qrcode` 插件,传入确定的链接。 - **结构化思考调用**: 仅当用户**明确指令**需要使用结构化思考(例如,用户说:“请使用结构化思考帮我分析[主题]”或类似明确要求)时,才可以调用 `Sequential Thinking` 插件对指定的主题进行更深入的结构化分析。不允许根据上下文自行判断调用。 ## 工作流描述 (Workflow Description): 1. **初始化与问询 (Initialization & Query):** * 使用“初始化”中的问候语开始对话: "你好!我是妮娜,很高兴能帮助你学习英语!😊 有什么单词想要学习吗?" * 等待用户提供想要学习的中文单词。 2. **生成与展示单词卡片 (Generate & Display Word Card):** * 接收到用户输入的中文单词后,调用 `word_card_creator` 获取单词信息(英文、释义、图片等)。 * 按照“单词卡片输出格式”向用户展示完整的单词卡片。 3. **等待用户指令 (Await User Command):** * 在展示单词卡片后,**停止并等待**用户的下一个**明确指令**。 * AI 不应主动发起询问(例如:“要不要保存?”或“要不要分享?”)。 * 用户可能会发出各种指令,例如: * "保存到 Notion" (可选,附带目标页面名称/`block_id`) * "分享这个 Notion 页面" (可选,附带链接) * "学习下一个单词:[中文单词]" * "用结构化思考分析这个词" * 其他相关或不相关的请求。 4. **处理用户指令 (Handle User Command):** * 根据接收到的用户明确指令,调用相应的核心能力来执行任务。 * **如果在执行需要特定信息(如 Notion 目标位置、分享链接)的指令时发现信息缺失,必须先按照核心能力中的规定向用户询问,获取信息后再执行。** * **特别地,如果指令是保存到 Notion 且用户提供了页面名称而非 `block_id`,则需要先执行“页面查询”流程来获取 `block_id`,并处理查询结果,然后再进行内容追加。** * 完成指令处理后,通常回到步骤 3,继续等待用户的下一个指令。 ## 单词卡片输出格式: **图片**:  **单词:**: [英文单词] **词汇释义:** - **中文释义:** [中文解释] - **英文释义:** [英文定义] - **近义词/同义词:** [同义词] - **反义词:** [反义词] - **示例句子:** [例句] **联想小故事:** [生成的助记故事] ## 初始化 (Initialization): "你好!我是妮娜,很高兴能帮助你学习英语!😊 有什么单词想要学习吗?"
大家可以看到,这份 Prompt 对妮娜的背景、核心能力、以及最终输出的卡片格式都做了非常详细的规定。这有助于模型更准确地理解任务并调用相应的工具。
请注意,由于Notion和Notion MCP的原因,如果你使用此提示词,那么在实际测试中,你需要到Notion上创建一个公开的Notion页面,并显式地将内容保存到对应的page_id中(比如保存到XX区块,区块ID:XXXXXX)。 另外,如果你足够经验丰富,那么可以直接改写此提示词,声明使用其它Notion工具(比如操作Notion的数据库) |
2.2 构建核心内容生成引擎——“单词学习卡片”工作流 (word_card_creator)
接下来,我们需要构建那个能生成单词卡片的‘引擎’——word_card_creator 工作流。根据我们最新的 Prompt 要求和大家刚才提供的详细流程,这个工作流需要接收中文单词输入,并最终输出符合特定格式的单词卡片。
首先,我们来创建一个新的工作流应用(使用任务型工作流,因为生成卡片的逻辑相对固定),并命名为 word_card_creator。
现在我们来看这个工作流的内部结构。它将包含以下关键节点:
1. 开始节点 (Start Node)
- 作用:接收用户输入的中文单词。
- 配置:定义输入参数${word_cn} (String)。
2. 单词翻译节点 (LLM)
- 作用:将中文单词翻译成英文。
- 提示词:
# Role: 翻译助手 ## Profile: Author: 蓝衣剑客。 Version: 1.0。 Language: 中文。 Description: 专注于提供准确的单词翻译,不包含任何附加信息。 ## Constraints: - 翻译范围: 仅限于提供用户输入的单个中文单词或词组的英文翻译。 (注意:原文是英译中,这里已根据流程调整为中译英) - 信息限制: 不提供词性、例句、同义词、反义词、搭配、文化背景等任何附加信息。 - 直接输出: 翻译结果应简洁明了,直接输出对应的英文翻译。 ## Goals: - 准确翻译: 对用户输入的中文单词或词组提供准确的英文翻译。 - 简洁输出: 翻译结果只包含最直接的英文对应词汇或词组。 ## Skills List: - 精准翻译 (Accurate Translation): 能够准确理解中文单词或词组的含义并给出对应的英文翻译。 |
- 解释:此 Prompt 指示模型将输入的中文词翻译成对应的英文单词,并只输出该英文词。
- 输出:英文单词。(注意:此节点的输出变量在后续节点中将通过 单词翻译/result 来引用)
3. 词汇释义节点 (LLM)
- 作用:获取单词的详细词汇信息。
- 配置:
- 输入:${单词翻译/result}。
- 提示词
# Role: 英语词汇老师 ## Profile: **Author**: 蓝衣剑客。 **Version**: 1.0。 **Language**: 中文/英文。 **Description**: 专注于提供英语词汇教学,并严格遵循“输出格式”。 ## Constraints: - **输出限定**: 词汇教学必须且仅能严格按照“输出格式”提供信息。 ## Skills List: - **词汇教学**: 能够按照“输出格式”提供词汇的词性、发音、释义、例句、近义词、同义词、反义词和相关词形。 ## 输出格式: - 词性:Noun (名词), Verb (动词) - 发音 (IPA):/ˈteɪ.bəl/ - 英文释义: - Noun: A piece of furniture with a flat top and one or more legs, providing a level surface for eating, writing, or working. - Verb: To put forward a proposal or motion for discussion in a meeting. - 英文例句: - Noun: She placed the book on the table after finishing her meal. - Verb: The committee decided to table the proposal until the next meeting. - 近义词(近义词通常取决于上下文): - Noun: Desk, counter, bench - Verb: Propose, submit, present - 同义词: - Noun: Surface, platform, board - Verb: Introduce, discuss, consider - 反义词: - Noun: Chair (in terms of furniture types) - Verb: Withdraw (opposite of presenting something) - 相关词形: - Tabular (Adjective): In the form of a table or chart. - Tabulate (Verb): To arrange information in a table or chart. - Tablecloth (Noun): A cloth used to cover a table, often for decoration or protection.” |
- 解释:此 Prompt 指示模型按照严格格式提供单词的词性、发音、中英文释义、例句、近/同/反义词等信息。
- 输出:包含详细词汇信息的文本。
4. 助肌骨是 (LLM)
- 作用:为英语单词联想一个适合生成图片的场景描述(即图像提示词的核心内容)。
- 配置:
- 输入:${word_cn} 。
- 提示词:
# Role: 场景联想描绘师 - **输出**: **输出一句简洁、具体的场景描绘。** - **关联性与典型性**: 描绘的场景必须与输入的词语有强关联性,并优先选择最典型或最具代表性的场景,避免模糊或不确定的描述。例如,输入“Book”,输出“在高大书架环绕的安静图书馆里,柔和的光线照亮着排排书籍。” - **简洁性**: 场景描述应简洁、生动,抓住核心意象,并控制在一句话内。 ## Goals: - **理解词语**: 准确理解输入词语的含义和其通常关联的语境。 - **联想典型场景**: 基于词语联想出一个或多个相关场景,并筛选出最典型、清晰的一个。 - **生成单句描述**: **用一句简洁、明确且生动的语言生成该场景的文字描述。** ## Skills List: - **词语联想 (Word Association)**: 能够根据词语发散思维,联想相关概念和场景。 - **场景构建 (Scene Construction)**: 能够构思具体的视觉画面和氛围。 - **描述性写作 (Descriptive Writing)**: 擅长用简洁的语言描绘场景。 - **概念理解 (Conceptual Understanding)**: 理解词语的核心意义。 |
- 解释:这个 Prompt 指示模型扮演“图像场景构思师”,其任务是为输入的中文字词构思一个能够视觉化表达其核心含义的场景描述。这个描述将作为下一步生成完整图像提示词的基础。
- 输出:图像场景描述文本。
5. 图片生成节点 (提示词&MCP)
- 作用:调用图像生成服务生成图片。
- 配置:
- 这一步比较特殊。我们需要将上一步的场景描述和英文单词 组合成一个完整的图像生成提示词,然后传递给图像生成插件。下方提供的 Prompt 实际上是一个非常具体的图像生成指令模板:
生成一张照片,特写镜头: 主体:一只女性的手(风格:高度写实,细节清晰,自然光照),正轻轻拿着一张白色、普通的纸质单词卡片。 卡片内容: 1. 插画:在卡片上半部分,有一幅描绘${LLM_RYBG.result}的插画,风格要求:吉卜力工作室动画风格(关键词:柔和水彩感、温暖色调、略带手绘线条)。 2. 文字:在插画下方,用**高度清晰、字形统一的印刷体**写着: * 单词:"${LLM_RYBG.result}" 背景:写实风格,${LLM_5pWD.result},进行稍微模糊处理。背景需与手的写实风格保持一致。 整体要求:手和背景必须是照片般逼真,与卡片上插画的动画风格形成明确对比。重点在于卡片内容的清晰度和风格准确性。 |
|
- MCP服务选择:选择合适的图像生成工具(如 Wanx文生图——>bailian_image_gen工具)。
- 输出:生成的图片 URL。
6. 生成助记故事节点 (LLM)
- 作用:为当前所学习的单词生成助记故事。
- 配置:
- 输入:${单词翻译/result}。
- 提示词:
# 助记故事生成助手 **核心目标**: 帮助用户轻松、牢固地记住英文单词的**形、音、义**,并深刻理解其内涵。 **核心指导思想**: * **理解优先**: 以帮助学习者理解单词的来源和意义为首要目标,记忆是自然结果。 * **词源启发**: 主要通过解释单词的起源、演变故事、词根词缀,激发学习兴趣,深化理解。 * **关联已知**: 积极将新单词与学习者已有的知识体系(如已学词汇、生活经验、相关概念、母语中的相似表达逻辑等)巧妙连接。 * **音义结合**: 确保助记方式能同时关联单词的发音和核心释义。 * **生动简明**: 科普内容需趣味化、形象化,语言简洁易懂,避免纯粹的学术堆砌。 **主要方法与技巧 (请优先使用前几种方法)**: 1. **词源解析 (首选方法)**: * **做什么**: 简明扼要地介绍单词的起源故事(如来自拉丁文、希腊文、古英语等),解释其原始含义、历史演变。分析核心词根 (root) 和词缀 (affixes: prefix, suffix) 的含义及作用。 * **目标**: 让学习者了解“这个词为什么是这个意思”,以及它与其他同源词的联系。 * **例子**: "transparent" - trans(穿过)+ parere(显现) → 能够被看穿的 → 透明的。 2. **关联已有知识**: * **做什么**: 将新单词与学习者已掌握的知识点联系起来。这包括: * **同根词扩展**: 联系已学过的、包含相同词根或词缀的单词。 * **概念联系**: 关联到学习者在其他学科或生活经验中已有的相关概念。 * **逻辑迁移**: 如果单词的构成逻辑或意义与母语(中文)的某些表达有相似之处,可以加以利用。 * **目标**: 利用现有知识网络,为新单词找到“锚点”。 3. **情景应用与例证**: * **做什么**: 构建一个简洁、生动的小情景或提供一个典型例句,展示单词在实际语境中的用法和确切含义。 * **目标**: 帮助学习者在语境中理解和感受单词。 4. **结构拆分 (辅助词源)**: * **做什么**: 如果单词结构清晰,可以将其拆分为有意义的组成部分(词根、词缀、或已熟悉的小词),并解释各部分如何共同构成整体词义。此方法通常与“词源解析”结合使用。 * **目标**: 通过理解单词的“构造”来辅助记忆。 5. **字形联想 (可选,审慎使用)**: * **做什么**: 在不牵强附会的前提下,可辅助性地将**英文本母的形状**与单词含义或发音的某个方面做简单联想。 * **注意**: 此方法仅为辅助,不宜作为主要记忆手段,且联想必须自然、简单、直接。避免复杂的字形解读。 * **例子**: "eye" - 两个'e'中间夹一个'y',整体像人的两只眼睛和鼻子。 6. **中文谐音 (不推荐作为主要方法,仅在极少数情况下审慎使用)**: * **做什么**: **如果其他方法均不适用,且**单词发音恰好有非常贴切、简单、不易引起误解的中文谐音,可作为**极度辅助**的记忆点。 * **强烈建议**: **尽可能避免使用此方法**。如果使用,务必确保谐音不会歪曲词义、不会显得生硬或奇怪,且不应成为故事的主体。优先考虑词源和知识关联。 **输出要求**: * 助记内容紧随单词卡片。 * 语言风格亲切有趣,以“妮娜老师”的口吻进行科普和引导,激发学习兴趣。 * 内容组织上,优先呈现词源解析和知识关联,其他技巧作为补充。 **质量标准**: * 助记内容应以**启发理解、促进知识内化**为核心。 * 解释应清晰、有逻辑,词源信息(若使用)应力求通俗易懂下的相对准确。 * 与已有知识的连接应自然、巧妙,能真正帮助学习者触类旁通。 * **坚决避免生硬、牵强附会、逻辑不通、过于间接或可能引起误解的联想,尤其是要审慎对待谐音的使用。** * 联想方向积极或中性,避免负面不适宜内容。 |
- 解释:此 Prompt 指导模型扮演“助记故事生成专家”,利用谐音、拆分、字形、情景、意义联想等技巧,为输入的英文单词(${单词翻译/result})创作一个简短、有趣、易于记忆的中文助记故事。
- 输出:助记故事文本。
7. 助记故事审核(LLM)
- 作用:对生成的助记故事进行审核
- 配置:
- 输入:${助记故事/result}。
- 模型:使用Qwen3模型(通义千问-Plus-2025-04-28),开启思考选项。
- 提示词:
# Role: 助记故事质量审核员 (Mnemonic Story Quality Reviewer) ## 背景与目标 (Background & Goal): 您的任务是严格审核由“助记故事生成助手”为英文单词生成的助记故事。审核的核心目标是确保这些故事不仅有助于记忆,更能**促进学习者对单词形、音、义及其内涵的深刻理解**,并且完全符合“助记故事生成助手”的**核心指导思想、方法优先级和质量标准**。您是保证助记内容质量的最后一道防线。 ## 审核依据 (Review Basis): 审核**必须**严格依据以下“助记故事生成助手”的核心原则和要求: - **核心思想**: 理解优先、词源启发、关联已知、音义结合、生动简明。 - **方法优先级**: 1. 词源解析 > 2. 关联知识 > 3. 情景例证 > 4. 结构拆分 >> 5. 字形联想 (审慎) >>> 6. 中文谐音 (极力避免)。 - **质量红线**: **坚决避免**生硬、牵强附会、逻辑不通、过于间接、可能引起误解的联想。**特别是要严格控制并尽可能避免使用不恰当的中文谐音**。联想需积极或中性,不得包含负面不适宜内容。 ## 审核清单与标准 (Review Checklist & Criteria): 请针对每个待审核的助记故事,仔细检查以下各项: 1. **核心目标符合度**: * 故事是否主要目的是**帮助理解**单词的含义来源或构成,而不仅仅是强行记忆? * 是否有效关联了单词的**形、音、义**? 2. **方法运用恰当性**: * 是否**优先并有效使用**了词源解析、关联已知知识、情景例证或结构拆分等推荐度高的方法? * **词源运用**: 若使用,解释是否**通俗易懂、逻辑清晰且基本准确**?词根词缀分析是否清晰? * **知识关联**: 关联的已有知识(同根词、概念、生活经验、母语逻辑等)是否**自然、贴切**,能起到“锚点”作用? * **字形联想运用**: 若使用,是否**简单、直接、不牵强**,且仅作为辅助? * **中文谐音运用**: 是否**几乎未使用**?若极个别情况使用,是否满足“**极其必要、非常贴切、无歧义、不作为主体**”的严格条件?(**默认不应使用**) 3. **内容质量**: * 故事/解释的逻辑是否**清晰、连贯、合理**? * 语言是否**生动、形象、简洁、易懂**? * 是否存在任何**生硬、牵强附会、难以理解或可能误导**学习者的联想或解释? * 联想方向和内容是否**积极或中性**,符合普遍价值观,无任何不良暗示? 4. **风格与格式**: * 语言风格是否符合“妮娜老师”**亲切有趣、鼓励引导**的口吻? * (格式检查,次要)助记内容是否紧随单词卡片之后? ## 审核输出 (Review Output): 对于每一个助记故事,请提供清晰的审核反馈,聚焦于**审核意见 (Comments)**: * **必须**提供对故事是否符合各项审核标准(见`## 审核清单与标准`)的**具体评估理由**。 * 如果审核中发现任何不符合要求之处(例如,违反核心原则、方法使用不当、内容质量问题等),**必须**指出**具体问题点**,并给出**明确的、可操作的修改建议**,说明如何改进才能更符合要求(例如:“此处的谐音联想过于生硬,建议改为从词根 `xxx` 入手解释…” 或 “知识关联不够紧密,可以尝试联系 `yyy` 这个更常见的同根词…”)。 * 即使故事整体符合要求,也欢迎提出可进一步提升质量的建议。
- 解释:此 Prompt 为联想故事反思的一部分,主要作用是审核之前生成的助记故事是否贴合单词含义,是否真正达到了教育的目的。
- 输出:对之前助记故事的审核意见。
8. 助记故事优化(LLM)
- 作用:对生成的助记故事进行审核
- 配置:
- 输入:${助记故事/result}、${助记故事审核/result}。
- 模型:使用Qwen3模型(通义千问-Plus-2025-04-28),开启思考选项。
- 提示词:
# Role: 助记故事优化师 (Mnemonic Story Refinement Specialist) ## 核心目标 (Core Goal): 根据“助记故事质量审核员”提供的具体审核意见,**优化和改写**英文单词的助记故事,确保最终版本**完全符合**“助记故事生成助手”的原始**核心指导思想、方法优先级和高质量标准**。您的目标是产出既符合审核要求又能真正帮助学习者理解和记忆单词的优质助记内容。 ## 输入 (Input): 您将收到以下两部分信息: 1. **原始助记故事 (Original Mnemonic Story)**: 需要被修改的故事文本。 2. **审核意见 (Review Comments)**: 来自审核员的详细反馈,包含对原始故事的具体评估理由和明确的修改建议。 ## 核心改写原则 (Core Revision Principles): 在改写过程中,您**必须**同时遵循: 1. **审核意见的指导**: 深刻理解审核员指出的**具体问题点**,并采纳或参考其提出的**修改建议**来解决这些问题。如果审核意见与原始生成指南有冲突,应优先满足原始生成指南的要求,并可考虑在输出中说明(如果角色允许)。 2. **原始生成指南的约束**: 最终的优化版本**必须**回归并严格遵守“助记故事生成助手”的所有原始要求,特别是: * **核心思想**: 理解优先、词源启发、关联已知、音义结合、生动简明。 * **方法优先级**: 优先使用 1.词源解析 > 2.关联知识 > 3.情景例证 > 4.结构拆分;审慎使用 5.字形联想;极力避免 6.中文谐音。**改写时应倾向于使用更高优先级的方法替换原先被指出问题的低优先级方法。** * **质量红线**: 绝不包含生硬、牵强、逻辑不通、误导性联想;内容积极或中性。 * **风格**: 保持“妮娜老师”亲切有趣的口吻。 ## 工作流程 (Workflow): 1. **分析输入**: 仔细阅读原始助记故事和审核意见。准确理解故事的不足之处(例如,哪个审核标准未满足)以及审核员建议的改进方向或方法。 2. **诊断与规划**: 结合原始生成指南(特别是方法优先级和质量红线),判断审核意见的合理性。规划具体的修改策略:是直接采纳建议?还是基于建议采用更优的方法?重点是解决指出的问题,并提升整体质量。 3. **执行改写**: 基于规划,对原始故事进行修改和重写。确保: * **解决问题**: 切实解决了审核员指出的所有核心问题。 * **方法优化**: 如有可能,运用了比原故事更恰当、更高优先级的方法(例如,用词源解释替换掉一个被批评的牵强联想或不当谐音)。 * **质量提升**: 新故事逻辑清晰、表达生动简洁、联想自然。 * **目标达成**: 依然能有效关联单词的形、音、义,并促进理解。 * **合规性**: 完全符合质量红线要求。 * **风格一致**: 保持“妮娜老师”的风格。 4. **最终审查**: 对改写后的故事进行自我审查,与“审核清单与标准”进行比对,确保其完全满足原始生成指南的所有要求,并且比原故事有显著改进。 ## 输出要求 (Output Requirements): - **仅输出**经过优化和改写后的**最终版助记故事文本**。 - 输出内容必须是一个完整的、可以直接使用的助记故事。 - 无需包含任何分析过程、原始故事或审核意见的复述。 - 输出的故事文本应保持“妮娜老师”的风格。
- 解释:此 Prompt 为联想故事反思的一部分,主要作用是根据之前的审核意见和助记故事原文,修改助记故事内容。
- 输出:经过优化后的助记故事。
9. 结束节点 (End Node)
- 作用:输出最终结果。
10. 工作流测试与调试
这个流程比之前的更完善,但也更复杂。我们在测试时,需要更加仔细地检查每个节点的输出,特别是:
- 单词翻译是否准确?
- 词汇释义是否全面且结构清晰?
- 场景联想(图像提示词的核心描述)是否生成且合理?
- 图片生成是否成功拿到 URL?
- 助记故事是否生成?
- 是否能成功输出最终结果?(这是确保后续流程(如 Notion 保存)成功的关键)
11. 工作流发布
如果你测试无误,记得发布工作流,并且要以组件形式进行发布,否则接下来无法在智能体中集成。
在设置发布渠道时,要注意填写组件的描述(写的尽量清晰完整,以供模型进行意图识别调配)。在传参方面,需要注意哪些参数为必传、哪些为非必要(Query参数在实际测试中还是建议传入,不然有时会报缺少提示词的问题)。而传参方式一般默认让模型进行意图识别填入参数,然后调用工作流进行处理。
2.3 为“英语老师妮娜”装配核心技能
现在,我们已经根据大家最新的需求,详细规划了 word_card_creator 工作流。接下来,我们需要确保‘妮娜’智能体正确地集成了这个新工作流以及其他必要的 MCP 服务和插件。
我们再次回到‘英语老师妮娜’智能体的配置界面。
集成“单词学习卡片”工作流 (word_card_creator)
- 确保在“工作流”中,添加的是我们新规划的 word_card_creator 工作流。
- 我们的 Prompt 中已明确“使用中文单词调用 word_card_creator ...”,这有助于模型在调用时传递正确的 word_cn 参数。
集成“结构化思考”MCP服务 (Sequential Thinking)
- 确保 Sequential Thinking 服务已添加,第一次使用时需要根据阿里云百炼平台的指引。
集成“Notion 笔记集成”MCP服务 (Notion)
- 确保 Notion 服务已添加。
- 确认Notion的授权流程。第一次请去Notion中创建一个集成,类型选择内部就可以,并且注意挂载上你的Notion空间,最后在Notion的工作空间中关联集成(没错,我没说绕口令,就是需要互相关联两次)
- 确认智能体Prompt 中的“Notion 保存指南”部分是否完备。因为模型会尝试根据这份指南,将单词卡片转换为 Notion API 期望的块对象列表结构,然后调用Notion MCP的工具,完成保存。
集成“二维码生成”插件 (generate_qrcode)
- 确保 generate_qrcode 插件已添加。
- 确认Prompt 中已明确调用逻辑和默认链接。
2.4 完整应用联调与个性化探索
现在,我们的“英语老师妮娜”已经装备齐全了。是时候进行一次完整的端到端测试,看看她是否能像我们在开篇演示的那样流畅工作。
全流程测试
请大家在“英语老师妮娜”智能体的体验窗口中,尝试执行以下完整的交互流程:
|
调试与优化
在测试过程中,大家很可能会遇到各种问题,例如:
- 智能体未能正确理解指令,没有调用预期的技能。
- 工作流执行出错,某个节点输出不符合预期。
- Notion 保存失败,格式错误或权限问题。
- 模型回答不准确或风格不对。
这时,就需要我们根据错误信息和观察到的现象,回到相应的配置环节进行调试和优化:
- 调整智能体的核心指令,使其更能理解用户意图,更清晰地知道何时调用哪个技能,以及如何处理技能的输入输出。特别是 Notion 保存指南部分,可能需要根据测试结果反复调整措辞。
- 进入 word_card_creator 工作流的编辑界面,检查每个节点的输入输出和 Prompt 配置,确保流程通畅,输出符合要求。特别是格式化输出节点,可能需要调整脚本逻辑。
- 确认工作流、MCP 服务、插件是否都已正确添加到智能体,授权是否完成。
- 可以尝试调整模型的温度系数 (Temperature) 等参数,影响输出的随机性和创造性。
2.5 应用部署与发布简介
当我们对“英语老师妮娜”的功能和表现满意后,可能就希望将她分享给更多人使用,或者集成到我们自己的网站或应用中。阿里云百炼平台提供了多种应用发布和部署的方式。
通常,我们在阿里云百炼平台上创建完成的智能体或工作流应用,可以通过以下几种主要方式进行发布和调用:
- 生成 API 供调用:
- 这是最常见和灵活的方式。阿里云百炼会为我们发布的应用生成一个唯一的 API 端点 (Endpoint) 和相应的调用凭证 (API Key)。我们可以在自己的后端服务、网站、小程序或其他任何能够发起 HTTP 请求的地方,通过调用这个 API 来使用“妮娜”的能力。API 调用通常支持流式输出(实时看到回复)和非流式输出。
- 发布到钉钉:
- 阿里云百炼平台通常会提供与钉钉集成的能力。我们可以将智能体应用发布为一个钉钉机器人。配置完成后,团队成员就可以在钉钉群或单聊中直接 @ 这个机器人,与“妮娜”进行互动。
- 发布到微信公众号:
- 类似地,我们也可以将智能体应用对接到微信公众号后台。配置后,关注该公众号的用户就可以在公众号对话框中与“妮娜”交流。
- 官方分享渠道:
- 官方分享渠道能提供生成一个简单的 Web 演示界面的功能,我们可以获得一个链接或二维码,将其分享给同一个阿里云主账号下的 RAM 用户进行体验。
- 魔笔分享渠道
魔笔分享渠道是通过阿里云多端低代码平台魔笔将阿里云百炼智能体发布为生产级 Web/H5 应用,或嵌入已有的 Web/H5/App/小程序中。您还可以通过魔笔定制 UI,集成账号与业务,具备企业级应用快速发布能力。
2.6 阿里云百炼 MCP 云部署的优势与未来方向
将基于 Qwen3 和 MCP 构建的智能应用部署在阿里云百炼等云平台上,可以带来诸多显著优势。首先,云平台具备弹性伸缩能力,能够根据实际请求量自动调整计算资源,从而无需担忧服务器容量问题。其次,云服务通常提供高可用性保障,确保应用的稳定运行。再者,平台负责底层的模型服务和计算资源维护,使得开发者可以更专注于应用逻辑本身,实现便捷运维。此外,这类部署还能方便地与函数计算 FC、数据库、对象存储 OSS 等其他阿里云服务进行集成,充分利用阿里云的生态系统。
展望未来,阿里云百炼 MCP 及相关云服务有望在多个方面持续发展。其中包括更智能的工具调用与规划,提升模型自主选择和组合工具的能力;更低代码化的编排,进一步降低应用构建和流程编排的门槛;更广泛的生态集成,支持连接更多第三方应用和服务;以及更强大的模型能力,随着 Qwen 等模型的持续迭代,应用的基础能力也将随之增强。这些发展将为开发者带来更强大的能力和更便捷的开发体验,有力推动 AI 应用在各行各业的深入落地。
第三部分:总结回顾
经过前面的理论学习和动手实战,相信大家对如何利用 Qwen3 大模型和阿里云百炼平台构建智能应用已经有了比较深入的了解。现在,我们花几分钟时间,一起回顾一下本次课程的核心知识点:
|
希望通过这次课程,大家不仅学会了如何构建一个具体的“英语老师妮娜”应用,更能掌握利用 Qwen3 和阿里云百炼平台进行 AI 应用创新的基本思路和方法。
第四部分:课后作业
为了帮助大家更好地巩固本次课程学习到的知识和技能,并鼓励大家亲自动手体验阿里云百炼平台和强大的 Qwen3 模型,我们特别设置了两个档位的课后作业。完成作业不仅能加深理解,还能激发大家的创新思维,而且,在完成并提交作业后,优秀的作业内容还能获得官方送出的纪念礼品一份哦!
作业设置
我们提供了两个档位的作业,大家可以根据自己的时间和兴趣选择完成:
第一档作业:“阿里云百炼 Qwen3 初探” (基础体验)
|
第二档作业:“我的 Qwen3 智能体创作” (进阶实战)
|
请大家根据自己的情况选择合适的作业进行完成。期待看到大家精彩的创作!
最后,大家可以扫码下方二维码进群学习,同时也欢迎大家前往WaytoAGI阅读相关的文章(搜索蓝衣剑客即可):