基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

本文涉及的产品
函数计算FC,每月15万CU 3个月
简介: 基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

用户可以与 AI 智能体进行中英文实时对话,获得个性化学习体验。应用预设了不同难度等级和场景模拟,可以开展日常交流、商务会议、旅游问路等情境下的对话交流,帮助用户在实际场景下灵活运用语言技能。此外,AI 智能体可以根据用户的对话表现进行即时反馈,提供改正建议。

基于函数计算部署 AI 智能陪练有奖体验中!两步完成活动任务,即可获得精美毛毯。

立即参与:https://developer.aliyun.com/topic/aitrainingcompanion


适用客户




Cloud Native

  • 期望通过 AI 实现个性化学习指导和即时反馈的教育平台
  • 致力于构建 AI 智能体模拟一对一真人对话练习的培训机构

使用产品




Cloud Native

  • 大模型服务平台百炼
  • 智能媒体服务
  • 视频直播
  • 函数计算

架构与部署




Cloud Native


方案概览

本方案利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

本方案的技术架构包括以下云服务:

  • 函数计算 FC:用于部署应用程序。
  • 大模型服务平台百炼:一站式的大模型开发及应用构建平台。
  • 智能媒体服务 IMS:提供音频处理、智能体互动、语音生成等能力
  • 实时音视频 ARTC:用来创建实时音频应用,提供 AI 智能体和用户的实时音频通话能力。


部署教程

创建百炼工作流应用

百炼工作流应用可以将复杂的任务拆分成一系列有序执行的步骤,以降低系统复杂度。通过将参数以变量的形式嵌入到工作流的大模型提示词中,可以实现不同难度等级和场景的模拟。

1. 在阿里百炼大模型服务平台[1]左侧导航栏中,单击我的应用[2]2. 单击新增应用,选择工作流应用,单击创建对话型工作流,进入工作流配置页面。 3. 进入页面后,开始节点会预设两个参数,更改为 difficulty 和 scene,对应描述分别更改为难度和场景。 4. 将左侧大模型节点拖入画布配置页面,将开始节点连接到大模型节点,并配置对应参数。

参数 配置对应参数
模型配置 通义千问-Max
温度系数 默认值
最长回复长度 1024
开启搜索 关闭
System Prompt

警告

配置完成后:
User Prompt ${sys.query}
上下文 默认开启
结果返回 开启

5. 将大模型节点连接到结束节点,并配置对应参数。

参数 配置对应参数
输出模式 选择文本输出
输入 输入/插入变量。选择大模型_1的result
结果返回 关闭

6. 点击右上角发布按钮。

创建实时音视频通信应用

实时音视频 ARTC 是智能体和用户之间建立起实时音频通信的基础,实现 AI 实时互动需要准备一个 ARTC 应用,参照以下步骤开通并创建 ARTC 应用。1. 开通视频直播[3]:计费方式选择按使用流量计费,点击右下角立即开通。 2. 在视频云直播控制台[4]左侧导航栏单击直播+ > 实时音视频 > 应用管理。3. 单击创建应用。 4. 填写自定义的实例名称,勾选服务协议后,点击立即购买。 5. 提示开通成功后,刷新应用管理页面,即可查看新建的实时音视频应用。

创建AI智能体

实时工作流是一种预先定义的流程模板,用于自动化处理 ARTC 音频流。AI 智能体则是在 AI 实时互动解决方案中定义的高仿真用户。

一、开通智能媒体服务(如果已开通,跳过此步骤)

1. 登录智能媒体服务控制台[5],点击立即开通按钮。 2. 在服务开通页面,勾选服务协议,点击立即开通按钮。 3. 点击服务授权按钮。 4. 在服务授权页面,点击同意授权按钮。

二、创建实时工作流

1. 登录 AI 实时互动-工作流管理[6],单击创建工作流模板。

说明:AI 英语口语陪练目前在国内可选地域包括杭州、上海、北京和深圳。请您根据自身的实际需求,先在导航栏中选择相应的地域,然后再继续进行创建操作。本方案以下所有演示操作地域均采用华东1(杭州)。


2. 配置基础信息:可以自定义工作流名称为 Workflow-English。3. 编辑 STT 语音转文字节点。 在弹出的节点配置页面,修改语言模型为中英。 4. 编辑 LLM 大语言模型节点,在弹出的节点配置页面,模型选择这一项选择对接阿里百炼平台,百炼类型选择应用中心。 a. 打开百炼控制台[7],点击左侧导航栏我的应用,找到目标应用并复制应用 ID,填写到 AppId 这一栏。

b. 鼠标悬停于页面右上角的 图标上,在下拉菜单中单击 API-KEY。


c. 在左侧导航栏,选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API-KEY。

说明:

  • 仅主账号拥有查看全部 API-KEY 的权限。主账号可以获取所有子账号的 API-KEY,子账号仅能获取自己的 API-KEY。
  • 请不要将 API-KEY 以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。

d. 当调用子业务空间的应用时,需要传递业务空间标识,如果是默认业务空间可以不填写。 5. 编辑 TTS 文字转语音节点,在弹出的节点配置页面修改音色,下拉选择龙橙,然后单击保存。 6. 工作流节点全部修改完成后,点击保存。

三、创建智能体

1. 登录 AI 实时互动-智能体管理[8],单击创建智能体。 2. 可以自定义智能体名称为 Agent-English,并绑定之前创建的实时工作流 ID Workflow-English和实时音视频 ARTC 应用,完成后点击提交。

部署应用

请点击前往部署[9]打开我们提供的函数计算应用模板,参考下表进行参数配置,然后单击创建并部署默认环境。

项目 描述 示例值
部署类型 部署方式。 直接部署
应用名称 自动生成。 默认
角色名称 模板所需的角色(如果需要授权,请按照控制台提示进行授权)。 默认
实时音视频AppId 实时音视频应用 ID。 打开视频云直播控制台,点击左侧导航栏直播+ > 实时音视频(原互动直播) > 应用管理,单击操作列中的管理。在基本信息页面可以看到应用 ID 和 AppKey
实时音视频AppKey 实时音视频 AppKey。
语音通话智能体的AgentId 语音通话智能体的 AgentId。 打开智能体管理,找到并复制 Agent-English 智能体 ID
RAM角色ARN 函数计算访问智能媒体服务时使用的函数角色。 如果提示您当前选择的应用还需要额外一些权限,请单击前往授权
智能体所属区域 智能体所属区域,会在相同地区创建函数计算的实例。 默认华东1(杭州)
命名空间 可以根据需要多次创建该应用,通过命名空间来区分出不同的应用。 默认


方案验证

一、访问示例应用

1. 应用部署完成后,您可以在环境详情的环境信息中找到示例应用的访问域名。

2. 单击访问域名,在浏览器中,会自动跳转为 https 链接地址。提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。

说明:应用程序需要使用麦克风,浏览器要求必须通过 HTTPS 进行连接。当前应用程序部署使用的域名是由 CNCF SandBox 项目下的 Serverless Devs 社区提供的临时域名,尚未绑定有效的 SSL/TLS 证书,因此当用户访问时,浏览器会提示连接不安全。建议在生产环境中部署该应用程序时,绑定一个有效的 SSL/TLS 证书,以确保通过 HTTPS 协议实现安全连接。 3. 进入示例应用。

二、实时英语口语陪练

1. 选择您想要学习的场景和难度,开始对话互动。

2. 在每轮对话过程中,AI 助手将根据您当前的回答提供评分,并给出针对性的学习建议,帮助您不断提升,期间可以使用 Tab 键进行打断。

说明:浏览器弹窗请求使用麦克风,点击访问该网站时允许。


总结




Cloud Native

至此,您已基本了解如何通过函数计算实现 AI 智能陪练,目前您可以在官网参与有奖体验活动,活动期间完成部署任务及提交作品,即可领取精美毛毯。更多细节以及后续清理资源,欢迎您点击阅读原文移步活动官网查看详情:

https://developer.aliyun.com/topic/aitrainingcompanion

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
相关文章
|
11天前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
145 29
|
1月前
|
人工智能 程序员 API
Motia:程序员福音!AI智能体三语言混编,零基础秒级部署
Motia 是一款专为软件工程师设计的 AI Agent 开发框架,支持多种编程语言,提供零基础设施部署、模块化设计和内置可观测性功能,帮助开发者快速构建和部署智能体。
138 15
Motia:程序员福音!AI智能体三语言混编,零基础秒级部署
|
3天前
|
人工智能 自然语言处理 安全
90.9K star!一键部署AI聊天界面,这个开源项目让大模型交互更简单!
"像使用微信一样操作大模型!Open WebUI 让AI对话从未如此简单"
|
23天前
|
人工智能 运维 安全
函数计算支持热门 MCP Server 一键部署
云上托管 MCP 搭建 AI Agent 将成为趋势。函数计算 FC 目前已经支持开源 MCP Server 一键托管,欢迎体验。
629 113
|
12天前
|
SQL 人工智能 安全
当 MCP 遇上 Serverless,AI 时代的最佳搭档
随着 AI 技术的飞速发展,MCP(模型上下文协议) 逐渐崭露头角。这项由 Anthropic 公司(Claude 的创造者)于 2024 年 11 月推出的开放协议,正在重新定义 AI 与数字世界的交互方式。这项开放协议不仅让 AI 突破传统对话边界,更赋予其执行现实任务的能力,堪称人工智能向"行动智能体"进化的里程碑。然而从火热概念到落地业务,MCP 还需要找到云端“好搭档”。
310 77
|
17天前
|
存储 人工智能 监控
一键部署 Dify + MCP Server,高效开发 AI 智能体应用
本文将着重介绍如何通过 SAE 快速搭建 Dify AI 研发平台,依托 Serverless 架构提供全托管、免运维的解决方案,高效开发 AI 智能体应用。
2225 63
|
24天前
|
人工智能 自然语言处理 API
AutoAgent:无需编程!接入DeepSeek用自然语言创建和部署AI智能体!港大开源框架让AI智能体开发变成填空题
香港大学推出的AutoAgent框架通过自然语言交互实现零代码创建AI智能体,支持多模型接入与自动化工作流编排,在GAIA基准测试中表现优异。
163 16
AutoAgent:无需编程!接入DeepSeek用自然语言创建和部署AI智能体!港大开源框架让AI智能体开发变成填空题
|
20天前
|
Serverless Python
借助 serverless 将 MCP 服务部署到云端
本文介绍了如何将 MCP 服务通过 SSE 协议部署到云端,避免本地下载和启动的麻烦。首先,使用 Python 实现了一个基于 FastMCP 的网络搜索工具,并通过设置 `transport='sse'` 启用 SSE 协议。接着,编写客户端代码测试服务功能,确保其正常运行。随后,利用阿里云函数计算服务(FC 3.0)以 Serverless 方式部署该服务,包括创建函数、配置环境变量、添加依赖层以及部署代码。最后,提供了客户端测试方法和日志排查技巧,并展示了如何在不同工具(如 Cherry-Studio、Cline 和 Cursor)中配置云端 MCP 服务。
414 10
借助 serverless 将 MCP 服务部署到云端
|
1月前
|
人工智能 安全 数据可视化
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
Gemma 3 是谷歌最新推出的开源多模态AI模型,支持超过35种语言,具备文本、图像及短视频处理能力,提供四种模型尺寸,优化单GPU性能,适用于多种AI应用场景。
352 8
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
|
25天前
|
人工智能 运维 安全
函数计算支持热门 MCP Server 一键部署
MCP(Model Context Protocol)自2024年发布以来,逐渐成为AI开发领域的实施标准。OpenAI宣布其Agent SDK支持MCP协议,进一步推动了其普及。然而,本地部署的MCP Server因效率低、扩展性差等问题,难以满足复杂生产需求。云上托管成为趋势,函数计算(FC)作为Serverless算力代表,提供一键托管开源MCP Server的能力,解决传统托管痛点,如成本高、弹性差、扩展复杂等。通过CAP平台,用户可快速部署多种热门MCP Server,体验高效灵活的AI应用开发与交互方式。
1140 10
下一篇
oss创建bucket