基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

本文涉及的产品
函数计算FC,每月15万CU 3个月
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
简介: AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。


用户可以与 AI 智能体进行中英文实时对话,获得个性化学习体验。应用预设了不同难度等级和场景模拟,可以开展日常交流、商务会议、旅游问路等情境下的对话交流,帮助用户在实际场景下灵活运用语言技能。此外,AI 智能体可以根据用户的对话表现进行即时反馈,提供改正建议。


基于函数计算部署 AI 智能陪练有奖体验中!两步完成活动任务,即可获得精美毛毯。

立即参与:https://developer.aliyun.com/topic/aitrainingcompanion

适用客户


  • 期望通过 AI 实现个性化学习指导和即时反馈的教育平台
  • 致力于构建 AI 智能体模拟一对一真人对话练习的培训机构


使用产品


  • 大模型服务平台百炼
  • 智能媒体服务
  • 视频直播
  • 函数计算


架构与部署


方案概览

本方案利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。


按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

image.png

本方案的技术架构包括以下云服务:

  • 函数计算 FC:用于部署应用程序。
  • 大模型服务平台百炼:一站式的大模型开发及应用构建平台。
  • 智能媒体服务 IMS:提供音频处理、智能体互动、语音生成等能力
  • 实时音视频 ARTC:用来创建实时音频应用,提供 AI 智能体和用户的实时音频通话能力。


部署教程

创建百炼工作流应用

百炼工作流应用可以将复杂的任务拆分成一系列有序执行的步骤,以降低系统复杂度。通过将参数以变量的形式嵌入到工作流的大模型提示词中,可以实现不同难度等级和场景的模拟。


1. 在阿里百炼大模型服务平台[1]左侧导航栏中,单击我的应用[2]

2. 单击新增应用,选择工作流应用,单击创建对话型工作流,进入工作流配置页面。

image.png

3. 进入页面后,开始节点会预设两个参数,更改为 difficulty 和 scene,对应描述分别更改为难度和场景。

image.png

4. 将左侧大模型节点拖入画布配置页面,将开始节点连接到大模型节点,并配置对应参数。

image.png

image.png

参数 配置对应参数
模型配置 通义千问-Max
温度系数 默认值
最长回复长度 1024
开启搜索 关闭
System Prompt

警告

image.png 配置完成后:

image.png

User Prompt ${sys.query}
上下文 默认开启
结果返回 开启


5. 将大模型节点连接到结束节点,并配置对应参数。


参数 配置对应参数
输出模式 选择文本输出
输入

输入/插入变量。选择大模型_1的result

image.png

结果返回 关闭


6. 点击右上角发布按钮。

image.png

创建实时音视频通信应用

实时音视频 ARTC 是智能体和用户之间建立起实时音频通信的基础,实现 AI 实时互动需要准备一个 ARTC 应用,参照以下步骤开通并创建 ARTC 应用。


1. 开通视频直播[3]:计费方式选择按使用流量计费,点击右下角立即开通。

image.png

2. 在视频云直播控制台[4]左侧导航栏单击直播+ > 实时音视频 > 应用管理。

3. 单击创建应用。

image.png

4. 填写自定义的实例名称,勾选服务协议后,点击立即购买。

image.png

5. 提示开通成功后,刷新应用管理页面,即可查看新建的实时音视频应用。

image.png

创建AI智能体

实时工作流是一种预先定义的流程模板,用于自动化处理 ARTC 音频流。AI 智能体则是在 AI 实时互动解决方案中定义的高仿真用户。


一、开通智能媒体服务(如果已开通,跳过此步骤)

1. 登录智能媒体服务控制台[5],点击立即开通按钮。

image.png

2. 在服务开通页面,勾选服务协议,点击立即开通按钮。

image.png

3. 点击服务授权按钮。

image.png

4. 在服务授权页面,点击同意授权按钮。

image.png

二、创建实时工作流

1. 登录 AI 实时互动-工作流管理[6],单击创建工作流模板。


说明:AI 英语口语陪练目前在国内可选地域包括杭州、上海、北京和深圳。请您根据自身的实际需求,先在导航栏中选择相应的地域,然后再继续进行创建操作。本方案以下所有演示操作地域均采用华东1(杭州)。

image.png

image.png

2. 配置基础信息:可以自定义工作流名称为 Workflow-English。3. 编辑 STT 语音转文字节点。

image.png

在弹出的节点配置页面,修改语言模型为中英。

image.png

4. 编辑 LLM 大语言模型节点,在弹出的节点配置页面,模型选择这一项选择对接阿里百炼平台,百炼类型选择应用中心。

image.png

a. 打开百炼控制台[7],点击左侧导航栏我的应用,找到目标应用并复制应用 ID,填写到 AppId 这一栏。

image.png

b. 鼠标悬停于页面右上角的 image.png 图标上,在下拉菜单中单击 API-KEY。

image.png

c. 在左侧导航栏,选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API-KEY。


说明:

  • 仅主账号拥有查看全部 API-KEY 的权限。主账号可以获取所有子账号的 API-KEY,子账号仅能获取自己的 API-KEY。
  • 请不要将 API-KEY 以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。


d. 当调用子业务空间的应用时,需要传递业务空间标识,如果是默认业务空间可以不填写。

image.png

5. 编辑 TTS 文字转语音节点,在弹出的节点配置页面修改音色,下拉选择龙橙,然后单击保存。

image.png

6. 工作流节点全部修改完成后,点击保存。

image.png

三、创建智能体

1. 登录 AI 实时互动-智能体管理[8],单击创建智能体。

image.png

2. 可以自定义智能体名称为 Agent-English,并绑定之前创建的实时工作流 ID Workflow-English和实时音视频 ARTC 应用,完成后点击提交。

image.png

部署应用

请点击前往部署[9]打开我们提供的函数计算应用模板,参考下表进行参数配置,然后单击创建并部署默认环境。


项目 描述 示例值
部署类型 部署方式。 直接部署
应用名称 自动生成。 默认
角色名称 模板所需的角色(如果需要授权,请按照控制台提示进行授权)。 默认
实时音视频AppId 实时音视频应用 ID。 打开视频云直播控制台,点击左侧导航栏直播+ > 实时音视频(原互动直播) > 应用管理,单击操作列中的管理。在基本信息页面可以看到应用 ID 和 AppKey
实时音视频AppKey 实时音视频 AppKey。
语音通话智能体的AgentId 语音通话智能体的 AgentId。 打开智能体管理,找到并复制 Agent-English 智能体 ID
RAM角色ARN 函数计算访问智能媒体服务时使用的函数角色。 如果提示您当前选择的应用还需要额外一些权限,请单击前往授权
智能体所属区域 智能体所属区域,会在相同地区创建函数计算的实例。 默认华东1(杭州)
命名空间 可以根据需要多次创建该应用,通过命名空间来区分出不同的应用。 默认


方案验证

一、访问示例应用

1. 应用部署完成后,您可以在环境详情的环境信息中找到示例应用的访问域名。

image.png

2. 单击访问域名,在浏览器中,会自动跳转为 https 链接地址。提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。


说明:应用程序需要使用麦克风,浏览器要求必须通过 HTTPS 进行连接。当前应用程序部署使用的域名是由 CNCF SandBox 项目下的 Serverless Devs 社区提供的临时域名,尚未绑定有效的 SSL/TLS 证书,因此当用户访问时,浏览器会提示连接不安全。建议在生产环境中部署该应用程序时,绑定一个有效的 SSL/TLS 证书,以确保通过 HTTPS 协议实现安全连接。

image.png

3. 进入示例应用。

image.png

二、实时英语口语陪练

1. 选择您想要学习的场景和难度,开始对话互动。

image.png

2. 在每轮对话过程中,AI 助手将根据您当前的回答提供评分,并给出针对性的学习建议,帮助您不断提升,期间可以使用 Tab 键进行打断。


说明:浏览器弹窗请求使用麦克风,点击访问该网站时允许。

image.png

image.png


总结


至此,您已基本了解如何通过函数计算实现 AI 智能陪练,目前您可以在官网参与有奖体验活动,活动期间完成部署任务及提交作品,即可领取精美毛毯。更多细节以及后续清理资源,欢迎您移步活动官网查看详情:

https://developer.aliyun.com/topic/aitrainingcompanion


相关链接:

[1] 阿里百炼大模型服务平台

https://bailian.console.aliyun.com/#/home

[2] 我的应用

https://bailian.console.aliyun.com/#/app-center

[3] 视频直播

https://common-buy.aliyun.com/?commodityCode=live

[4] 视频云直播控制台

https://live.console.aliyun.com/#/guide

[5] 智能媒体服务控制台

https://ims.console.aliyun.com/summary

[6] AI 实时互动-工作流管理

https://ims.console.aliyun.com/guide/default

[7] 百炼控制台

https://bailian.console.aliyun.com/

[8] AI 实时互动-智能体管理

https://ims.console.aliyun.com/guide/default

[9] 前往部署

https://fcnext.console.aliyun.com/applications/create?template=ai-english-coach&deployType=template-direct&from=solution

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
打赏
0
4
5
1
12731
分享
相关文章
Dify+DeepSeek实战教程!企业级 AI 文档库本地化部署,数据安全与智能检索我都要
接下来这篇文章,就打算用最接地气的方式,手把手带你从 0 到 1 搭建一套专属的本地知识库系统。无论你是想优化企业内部文档检索(不用担心敏感数据上传云端的风险),还是像我一样想为用户打造更智能的文档服务,都能跟着步骤一步步实现。咱们不卖关子,直接上干货
Dify+DeepSeek实战教程!企业级 AI 文档库本地化部署,数据安全与智能检索我都要
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
174 29
Motia:程序员福音!AI智能体三语言混编,零基础秒级部署
Motia 是一款专为软件工程师设计的 AI Agent 开发框架,支持多种编程语言,提供零基础设施部署、模块化设计和内置可观测性功能,帮助开发者快速构建和部署智能体。
147 15
Motia:程序员福音!AI智能体三语言混编,零基础秒级部署
90.9K star!一键部署AI聊天界面,这个开源项目让大模型交互更简单!
"像使用微信一样操作大模型!Open WebUI 让AI对话从未如此简单"
一键部署 Dify + MCP Server,高效开发 AI 智能体应用
本文将着重介绍如何通过 SAE 快速搭建 Dify AI 研发平台,依托 Serverless 架构提供全托管、免运维的解决方案,高效开发 AI 智能体应用。
2542 64
函数计算支持热门 MCP Server 一键部署
云上托管 MCP 搭建 AI Agent 将成为趋势。函数计算 FC 目前已经支持开源 MCP Server 一键托管,欢迎体验。
654 114
当 MCP 遇上 Serverless,AI 时代的最佳搭档
随着 AI 技术的飞速发展,MCP(模型上下文协议) 逐渐崭露头角。这项由 Anthropic 公司(Claude 的创造者)于 2024 年 11 月推出的开放协议,正在重新定义 AI 与数字世界的交互方式。这项开放协议不仅让 AI 突破传统对话边界,更赋予其执行现实任务的能力,堪称人工智能向"行动智能体"进化的里程碑。然而从火热概念到落地业务,MCP 还需要找到云端“好搭档”。
349 77
AutoAgent:无需编程!接入DeepSeek用自然语言创建和部署AI智能体!港大开源框架让AI智能体开发变成填空题
香港大学推出的AutoAgent框架通过自然语言交互实现零代码创建AI智能体,支持多模型接入与自动化工作流编排,在GAIA基准测试中表现优异。
173 16
AutoAgent:无需编程!接入DeepSeek用自然语言创建和部署AI智能体!港大开源框架让AI智能体开发变成填空题
借助 serverless 将 MCP 服务部署到云端
本文介绍了如何将 MCP 服务通过 SSE 协议部署到云端,避免本地下载和启动的麻烦。首先,使用 Python 实现了一个基于 FastMCP 的网络搜索工具,并通过设置 `transport='sse'` 启用 SSE 协议。接着,编写客户端代码测试服务功能,确保其正常运行。随后,利用阿里云函数计算服务(FC 3.0)以 Serverless 方式部署该服务,包括创建函数、配置环境变量、添加依赖层以及部署代码。最后,提供了客户端测试方法和日志排查技巧,并展示了如何在不同工具(如 Cherry-Studio、Cline 和 Cursor)中配置云端 MCP 服务。
447 10
借助 serverless 将 MCP 服务部署到云端
阿里云AI Stack全量适配Qwen3模型,企业级部署效率全面升级
2025年4月29日的凌晨5点,阿里全新一代模型通义千问Qwen3正式发布并全部开源8款「混合推理模型」,包含: 6款Dense模型:0.6B、1.7B、4B、8B、14B、32B。 2款MoE模型:Qwen3-30B-A3B和旗舰版Qwen3-235B-A22B。 阿里云AI Stack已适配全量Qwen3模型,可快速部署实现Qwen3模型的开箱即用!

相关产品

  • 函数计算
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等