基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

本文涉及的产品
函数计算FC,每月15万CU 3个月
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
简介: AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。


用户可以与 AI 智能体进行中英文实时对话,获得个性化学习体验。应用预设了不同难度等级和场景模拟,可以开展日常交流、商务会议、旅游问路等情境下的对话交流,帮助用户在实际场景下灵活运用语言技能。此外,AI 智能体可以根据用户的对话表现进行即时反馈,提供改正建议。


基于函数计算部署 AI 智能陪练有奖体验中!两步完成活动任务,即可获得精美毛毯。

立即参与:https://developer.aliyun.com/topic/aitrainingcompanion

适用客户


  • 期望通过 AI 实现个性化学习指导和即时反馈的教育平台
  • 致力于构建 AI 智能体模拟一对一真人对话练习的培训机构


使用产品


  • 大模型服务平台百炼
  • 智能媒体服务
  • 视频直播
  • 函数计算


架构与部署


方案概览

本方案利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。


按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

image.png

本方案的技术架构包括以下云服务:

  • 函数计算 FC:用于部署应用程序。
  • 大模型服务平台百炼:一站式的大模型开发及应用构建平台。
  • 智能媒体服务 IMS:提供音频处理、智能体互动、语音生成等能力
  • 实时音视频 ARTC:用来创建实时音频应用,提供 AI 智能体和用户的实时音频通话能力。


部署教程

创建百炼工作流应用

百炼工作流应用可以将复杂的任务拆分成一系列有序执行的步骤,以降低系统复杂度。通过将参数以变量的形式嵌入到工作流的大模型提示词中,可以实现不同难度等级和场景的模拟。


1. 在阿里百炼大模型服务平台[1]左侧导航栏中,单击我的应用[2]

2. 单击新增应用,选择工作流应用,单击创建对话型工作流,进入工作流配置页面。

image.png

3. 进入页面后,开始节点会预设两个参数,更改为 difficulty 和 scene,对应描述分别更改为难度和场景。

image.png

4. 将左侧大模型节点拖入画布配置页面,将开始节点连接到大模型节点,并配置对应参数。

image.png

image.png

参数 配置对应参数
模型配置 通义千问-Max
温度系数 默认值
最长回复长度 1024
开启搜索 关闭
System Prompt

警告

image.png 配置完成后:

image.png

User Prompt ${sys.query}
上下文 默认开启
结果返回 开启


5. 将大模型节点连接到结束节点,并配置对应参数。


参数 配置对应参数
输出模式 选择文本输出
输入

输入/插入变量。选择大模型_1的result

image.png

结果返回 关闭


6. 点击右上角发布按钮。

image.png

创建实时音视频通信应用

实时音视频 ARTC 是智能体和用户之间建立起实时音频通信的基础,实现 AI 实时互动需要准备一个 ARTC 应用,参照以下步骤开通并创建 ARTC 应用。


1. 开通视频直播[3]:计费方式选择按使用流量计费,点击右下角立即开通。

image.png

2. 在视频云直播控制台[4]左侧导航栏单击直播+ > 实时音视频 > 应用管理。

3. 单击创建应用。

image.png

4. 填写自定义的实例名称,勾选服务协议后,点击立即购买。

image.png

5. 提示开通成功后,刷新应用管理页面,即可查看新建的实时音视频应用。

image.png

创建AI智能体

实时工作流是一种预先定义的流程模板,用于自动化处理 ARTC 音频流。AI 智能体则是在 AI 实时互动解决方案中定义的高仿真用户。


一、开通智能媒体服务(如果已开通,跳过此步骤)

1. 登录智能媒体服务控制台[5],点击立即开通按钮。

image.png

2. 在服务开通页面,勾选服务协议,点击立即开通按钮。

image.png

3. 点击服务授权按钮。

image.png

4. 在服务授权页面,点击同意授权按钮。

image.png

二、创建实时工作流

1. 登录 AI 实时互动-工作流管理[6],单击创建工作流模板。


说明:AI 英语口语陪练目前在国内可选地域包括杭州、上海、北京和深圳。请您根据自身的实际需求,先在导航栏中选择相应的地域,然后再继续进行创建操作。本方案以下所有演示操作地域均采用华东1(杭州)。

image.png

image.png

2. 配置基础信息:可以自定义工作流名称为 Workflow-English。3. 编辑 STT 语音转文字节点。

image.png

在弹出的节点配置页面,修改语言模型为中英。

image.png

4. 编辑 LLM 大语言模型节点,在弹出的节点配置页面,模型选择这一项选择对接阿里百炼平台,百炼类型选择应用中心。

image.png

a. 打开百炼控制台[7],点击左侧导航栏我的应用,找到目标应用并复制应用 ID,填写到 AppId 这一栏。

image.png

b. 鼠标悬停于页面右上角的 image.png 图标上,在下拉菜单中单击 API-KEY。

image.png

c. 在左侧导航栏,选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API-KEY。


说明:

  • 仅主账号拥有查看全部 API-KEY 的权限。主账号可以获取所有子账号的 API-KEY,子账号仅能获取自己的 API-KEY。
  • 请不要将 API-KEY 以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。


d. 当调用子业务空间的应用时,需要传递业务空间标识,如果是默认业务空间可以不填写。

image.png

5. 编辑 TTS 文字转语音节点,在弹出的节点配置页面修改音色,下拉选择龙橙,然后单击保存。

image.png

6. 工作流节点全部修改完成后,点击保存。

image.png

三、创建智能体

1. 登录 AI 实时互动-智能体管理[8],单击创建智能体。

image.png

2. 可以自定义智能体名称为 Agent-English,并绑定之前创建的实时工作流 ID Workflow-English和实时音视频 ARTC 应用,完成后点击提交。

image.png

部署应用

请点击前往部署[9]打开我们提供的函数计算应用模板,参考下表进行参数配置,然后单击创建并部署默认环境。


项目 描述 示例值
部署类型 部署方式。 直接部署
应用名称 自动生成。 默认
角色名称 模板所需的角色(如果需要授权,请按照控制台提示进行授权)。 默认
实时音视频AppId 实时音视频应用 ID。 打开视频云直播控制台,点击左侧导航栏直播+ > 实时音视频(原互动直播) > 应用管理,单击操作列中的管理。在基本信息页面可以看到应用 ID 和 AppKey
实时音视频AppKey 实时音视频 AppKey。
语音通话智能体的AgentId 语音通话智能体的 AgentId。 打开智能体管理,找到并复制 Agent-English 智能体 ID
RAM角色ARN 函数计算访问智能媒体服务时使用的函数角色。 如果提示您当前选择的应用还需要额外一些权限,请单击前往授权
智能体所属区域 智能体所属区域,会在相同地区创建函数计算的实例。 默认华东1(杭州)
命名空间 可以根据需要多次创建该应用,通过命名空间来区分出不同的应用。 默认


方案验证

一、访问示例应用

1. 应用部署完成后,您可以在环境详情的环境信息中找到示例应用的访问域名。

image.png

2. 单击访问域名,在浏览器中,会自动跳转为 https 链接地址。提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。


说明:应用程序需要使用麦克风,浏览器要求必须通过 HTTPS 进行连接。当前应用程序部署使用的域名是由 CNCF SandBox 项目下的 Serverless Devs 社区提供的临时域名,尚未绑定有效的 SSL/TLS 证书,因此当用户访问时,浏览器会提示连接不安全。建议在生产环境中部署该应用程序时,绑定一个有效的 SSL/TLS 证书,以确保通过 HTTPS 协议实现安全连接。

image.png

3. 进入示例应用。

image.png

二、实时英语口语陪练

1. 选择您想要学习的场景和难度,开始对话互动。

image.png

2. 在每轮对话过程中,AI 助手将根据您当前的回答提供评分,并给出针对性的学习建议,帮助您不断提升,期间可以使用 Tab 键进行打断。


说明:浏览器弹窗请求使用麦克风,点击访问该网站时允许。

image.png

image.png


总结


至此,您已基本了解如何通过函数计算实现 AI 智能陪练,目前您可以在官网参与有奖体验活动,活动期间完成部署任务及提交作品,即可领取精美毛毯。更多细节以及后续清理资源,欢迎您移步活动官网查看详情:

https://developer.aliyun.com/topic/aitrainingcompanion


相关链接:

[1] 阿里百炼大模型服务平台

https://bailian.console.aliyun.com/#/home

[2] 我的应用

https://bailian.console.aliyun.com/#/app-center

[3] 视频直播

https://common-buy.aliyun.com/?commodityCode=live

[4] 视频云直播控制台

https://live.console.aliyun.com/#/guide

[5] 智能媒体服务控制台

https://ims.console.aliyun.com/summary

[6] AI 实时互动-工作流管理

https://ims.console.aliyun.com/guide/default

[7] 百炼控制台

https://bailian.console.aliyun.com/

[8] AI 实时互动-智能体管理

https://ims.console.aliyun.com/guide/default

[9] 前往部署

https://fcnext.console.aliyun.com/applications/create?template=ai-english-coach&deployType=template-direct&from=solution

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
打赏
0
3
5
1
12763
分享
相关文章
Dify+DeepSeek实战教程!企业级 AI 文档库本地化部署,数据安全与智能检索我都要
接下来这篇文章,就打算用最接地气的方式,手把手带你从 0 到 1 搭建一套专属的本地知识库系统。无论你是想优化企业内部文档检索(不用担心敏感数据上传云端的风险),还是像我一样想为用户打造更智能的文档服务,都能跟着步骤一步步实现。咱们不卖关子,直接上干货
Dify+DeepSeek实战教程!企业级 AI 文档库本地化部署,数据安全与智能检索我都要
【MCP教程系列】搭建基于 Spring AI 的 SSE 模式 MCP 服务并自定义部署至阿里云百炼
本文详细介绍了如何基于Spring AI搭建支持SSE模式的MCP服务,并成功集成至阿里云百炼大模型平台。通过四个步骤实现从零到Agent的构建,包括项目创建、工具开发、服务测试与部署。文章还提供了具体代码示例和操作截图,帮助读者快速上手。最终,将自定义SSE MCP服务集成到百炼平台,完成智能体应用的创建与测试。适合希望了解SSE实时交互及大模型集成的开发者参考。
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
238 29
中央网信办部署开展“清朗·整治AI技术滥用”专项行动
中央网信办近日印发通知,启动为期3个月的“清朗·整治AI技术滥用”专项行动,旨在规范AI服务与应用,促进行业健康发展,保障公民权益。行动分两个阶段:第一阶段聚焦源头治理,包括清理违规AI程序、加强生成内容标识管理等;第二阶段集中整治利用AI制作谣言、不实信息、色情低俗内容及侵权行为等问题。此次行动将强化平台责任,提升技术检测能力,推动AI技术合法合规使用,维护网络环境清朗。
4年10亿美金,Neon用Serverless PG证明:AI需要的不是“大”,而是“隐形”
AnalyticDB PostgreSQL 版基于Neon架构隆重推出满足 AI 时代应用开发需求的Serverless版本,并且在这之上搭载了结构化分析、向量检索、BM25全文检索和图检索,通过一套引擎满足 AI 应用丰富的数据诉求,支持MCP和OpenAI协议,为企业全面拥抱 AI 配备了数据存储、分析和应用的 “关键” 能力,帮助企业火箭式启动跑赢时代。
90.9K star!一键部署AI聊天界面,这个开源项目让大模型交互更简单!
"像使用微信一样操作大模型!Open WebUI 让AI对话从未如此简单"
一键部署 Dify + MCP Server,高效开发 AI 智能体应用
本文将着重介绍如何通过 SAE 快速搭建 Dify AI 研发平台,依托 Serverless 架构提供全托管、免运维的解决方案,高效开发 AI 智能体应用。
3383 64
函数计算支持热门 MCP Server 一键部署
云上托管 MCP 搭建 AI Agent 将成为趋势。函数计算 FC 目前已经支持开源 MCP Server 一键托管,欢迎体验。
757 114
当 MCP 遇上 Serverless,AI 时代的最佳搭档
随着 AI 技术的飞速发展,MCP(模型上下文协议) 逐渐崭露头角。这项由 Anthropic 公司(Claude 的创造者)于 2024 年 11 月推出的开放协议,正在重新定义 AI 与数字世界的交互方式。这项开放协议不仅让 AI 突破传统对话边界,更赋予其执行现实任务的能力,堪称人工智能向"行动智能体"进化的里程碑。然而从火热概念到落地业务,MCP 还需要找到云端“好搭档”。
490 77
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南
本文详细介绍了在AMD硬件上构建大型语言模型(LLM)推理环境的全流程。以RX 7900XT为例,通过配置ROCm平台、部署Ollama及Open WebUI,实现高效本地化AI推理。尽管面临技术挑战,但凭借高性价比(如700欧元的RX 7900XT性能接近2200欧元的RTX 5090),AMD方案成为经济实用的选择。测试显示,不同规模模型的推理速度从9到74 tokens/秒不等,满足交互需求。随着ROCm不断完善,AMD生态将推动AI硬件多元化发展,为个人与小型组织提供低成本、低依赖的AI实践路径。
133 1
在AMD GPU上部署AI大模型:从ROCm环境搭建到Ollama本地推理实战指南

相关产品

  • 函数计算
  • AI助理

    你好,我是AI助理

    可以解答问题、推荐解决方案等