基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

本文涉及的产品
函数计算FC,每月15万CU 3个月
简介: 基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

用户可以与 AI 智能体进行中英文实时对话,获得个性化学习体验。应用预设了不同难度等级和场景模拟,可以开展日常交流、商务会议、旅游问路等情境下的对话交流,帮助用户在实际场景下灵活运用语言技能。此外,AI 智能体可以根据用户的对话表现进行即时反馈,提供改正建议。

基于函数计算部署 AI 智能陪练有奖体验中!两步完成活动任务,即可获得精美毛毯。

立即参与:https://developer.aliyun.com/topic/aitrainingcompanion


适用客户




Cloud Native

  • 期望通过 AI 实现个性化学习指导和即时反馈的教育平台
  • 致力于构建 AI 智能体模拟一对一真人对话练习的培训机构

使用产品




Cloud Native

  • 大模型服务平台百炼
  • 智能媒体服务
  • 视频直播
  • 函数计算

架构与部署




Cloud Native


方案概览

本方案利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

本方案的技术架构包括以下云服务:

  • 函数计算 FC:用于部署应用程序。
  • 大模型服务平台百炼:一站式的大模型开发及应用构建平台。
  • 智能媒体服务 IMS:提供音频处理、智能体互动、语音生成等能力
  • 实时音视频 ARTC:用来创建实时音频应用,提供 AI 智能体和用户的实时音频通话能力。


部署教程

创建百炼工作流应用

百炼工作流应用可以将复杂的任务拆分成一系列有序执行的步骤,以降低系统复杂度。通过将参数以变量的形式嵌入到工作流的大模型提示词中,可以实现不同难度等级和场景的模拟。

1. 在阿里百炼大模型服务平台[1]左侧导航栏中,单击我的应用[2]2. 单击新增应用,选择工作流应用,单击创建对话型工作流,进入工作流配置页面。 3. 进入页面后,开始节点会预设两个参数,更改为 difficulty 和 scene,对应描述分别更改为难度和场景。 4. 将左侧大模型节点拖入画布配置页面,将开始节点连接到大模型节点,并配置对应参数。

参数 配置对应参数
模型配置 通义千问-Max
温度系数 默认值
最长回复长度 1024
开启搜索 关闭
System Prompt

警告

配置完成后:
User Prompt ${sys.query}
上下文 默认开启
结果返回 开启

5. 将大模型节点连接到结束节点,并配置对应参数。

参数 配置对应参数
输出模式 选择文本输出
输入 输入/插入变量。选择大模型_1的result
结果返回 关闭

6. 点击右上角发布按钮。

创建实时音视频通信应用

实时音视频 ARTC 是智能体和用户之间建立起实时音频通信的基础,实现 AI 实时互动需要准备一个 ARTC 应用,参照以下步骤开通并创建 ARTC 应用。1. 开通视频直播[3]:计费方式选择按使用流量计费,点击右下角立即开通。 2. 在视频云直播控制台[4]左侧导航栏单击直播+ > 实时音视频 > 应用管理。3. 单击创建应用。 4. 填写自定义的实例名称,勾选服务协议后,点击立即购买。 5. 提示开通成功后,刷新应用管理页面,即可查看新建的实时音视频应用。

创建AI智能体

实时工作流是一种预先定义的流程模板,用于自动化处理 ARTC 音频流。AI 智能体则是在 AI 实时互动解决方案中定义的高仿真用户。

一、开通智能媒体服务(如果已开通,跳过此步骤)

1. 登录智能媒体服务控制台[5],点击立即开通按钮。 2. 在服务开通页面,勾选服务协议,点击立即开通按钮。 3. 点击服务授权按钮。 4. 在服务授权页面,点击同意授权按钮。

二、创建实时工作流

1. 登录 AI 实时互动-工作流管理[6],单击创建工作流模板。

说明:AI 英语口语陪练目前在国内可选地域包括杭州、上海、北京和深圳。请您根据自身的实际需求,先在导航栏中选择相应的地域,然后再继续进行创建操作。本方案以下所有演示操作地域均采用华东1(杭州)。


2. 配置基础信息:可以自定义工作流名称为 Workflow-English。3. 编辑 STT 语音转文字节点。 在弹出的节点配置页面,修改语言模型为中英。 4. 编辑 LLM 大语言模型节点,在弹出的节点配置页面,模型选择这一项选择对接阿里百炼平台,百炼类型选择应用中心。 a. 打开百炼控制台[7],点击左侧导航栏我的应用,找到目标应用并复制应用 ID,填写到 AppId 这一栏。

b. 鼠标悬停于页面右上角的 图标上,在下拉菜单中单击 API-KEY。


c. 在左侧导航栏,选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API-KEY。

说明:

  • 仅主账号拥有查看全部 API-KEY 的权限。主账号可以获取所有子账号的 API-KEY,子账号仅能获取自己的 API-KEY。
  • 请不要将 API-KEY 以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。

d. 当调用子业务空间的应用时,需要传递业务空间标识,如果是默认业务空间可以不填写。 5. 编辑 TTS 文字转语音节点,在弹出的节点配置页面修改音色,下拉选择龙橙,然后单击保存。 6. 工作流节点全部修改完成后,点击保存。

三、创建智能体

1. 登录 AI 实时互动-智能体管理[8],单击创建智能体。 2. 可以自定义智能体名称为 Agent-English,并绑定之前创建的实时工作流 ID Workflow-English和实时音视频 ARTC 应用,完成后点击提交。

部署应用

请点击前往部署[9]打开我们提供的函数计算应用模板,参考下表进行参数配置,然后单击创建并部署默认环境。

项目 描述 示例值
部署类型 部署方式。 直接部署
应用名称 自动生成。 默认
角色名称 模板所需的角色(如果需要授权,请按照控制台提示进行授权)。 默认
实时音视频AppId 实时音视频应用 ID。 打开视频云直播控制台,点击左侧导航栏直播+ > 实时音视频(原互动直播) > 应用管理,单击操作列中的管理。在基本信息页面可以看到应用 ID 和 AppKey
实时音视频AppKey 实时音视频 AppKey。
语音通话智能体的AgentId 语音通话智能体的 AgentId。 打开智能体管理,找到并复制 Agent-English 智能体 ID
RAM角色ARN 函数计算访问智能媒体服务时使用的函数角色。 如果提示您当前选择的应用还需要额外一些权限,请单击前往授权
智能体所属区域 智能体所属区域,会在相同地区创建函数计算的实例。 默认华东1(杭州)
命名空间 可以根据需要多次创建该应用,通过命名空间来区分出不同的应用。 默认


方案验证

一、访问示例应用

1. 应用部署完成后,您可以在环境详情的环境信息中找到示例应用的访问域名。

2. 单击访问域名,在浏览器中,会自动跳转为 https 链接地址。提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。

说明:应用程序需要使用麦克风,浏览器要求必须通过 HTTPS 进行连接。当前应用程序部署使用的域名是由 CNCF SandBox 项目下的 Serverless Devs 社区提供的临时域名,尚未绑定有效的 SSL/TLS 证书,因此当用户访问时,浏览器会提示连接不安全。建议在生产环境中部署该应用程序时,绑定一个有效的 SSL/TLS 证书,以确保通过 HTTPS 协议实现安全连接。 3. 进入示例应用。

二、实时英语口语陪练

1. 选择您想要学习的场景和难度,开始对话互动。

2. 在每轮对话过程中,AI 助手将根据您当前的回答提供评分,并给出针对性的学习建议,帮助您不断提升,期间可以使用 Tab 键进行打断。

说明:浏览器弹窗请求使用麦克风,点击访问该网站时允许。


总结




Cloud Native

至此,您已基本了解如何通过函数计算实现 AI 智能陪练,目前您可以在官网参与有奖体验活动,活动期间完成部署任务及提交作品,即可领取精美毛毯。更多细节以及后续清理资源,欢迎您点击阅读原文移步活动官网查看详情:

https://developer.aliyun.com/topic/aitrainingcompanion

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
2月前
|
存储 关系型数据库 数据库
附部署代码|云数据库RDS 全托管 Supabase服务:小白轻松搞定开发AI应用
本文通过一个 Agentic RAG 应用的完整构建流程,展示了如何借助 RDS Supabase 快速搭建具备知识处理与智能决策能力的 AI 应用,展示从数据准备到应用部署的全流程,相较于传统开发模式效率大幅提升。
附部署代码|云数据库RDS 全托管 Supabase服务:小白轻松搞定开发AI应用
|
3月前
|
人工智能 Kubernetes 调度
基于 AI 网关和 llmaz,提升 vLLM 推理服务可用性和部署易用性的实践
本文介绍了如何使用 llmaz 快速部署基于 vLLM 的大语言模型推理服务,并结合 Higress AI 网关实现流量控制、可观测性、故障转移等能力,构建稳定、高可用的大模型服务平台。
338 17
|
19天前
|
人工智能 缓存 JavaScript
Function AI 助力用户自主开发 MCP 服务,一键上云高效部署
在 AI 与云原生融合趋势下,MCP(模型上下文协议)助力开发者高效构建多模型智能应用。Function AI 提供 MCP 服务的一键上云能力,支持代码仓库绑定、OSS 上传、本地交付物及镜像部署等多种方式,实现模型服务快速集成与发布,提升开发效率与云端协同能力。
Function AI 助力用户自主开发 MCP 服务,一键上云高效部署
|
2月前
|
人工智能 自然语言处理 API
AI-Compass LLM推理框架+部署生态:整合vLLM、SGLang、LMDeploy等顶级加速框架,涵盖本地到云端全场景部署
AI-Compass LLM推理框架+部署生态:整合vLLM、SGLang、LMDeploy等顶级加速框架,涵盖本地到云端全场景部署
AI-Compass LLM推理框架+部署生态:整合vLLM、SGLang、LMDeploy等顶级加速框架,涵盖本地到云端全场景部署
|
2月前
|
人工智能 运维 监控
基于MCP的一体化AI管线:从模型训练到部署监控的全链路解析
本文介绍基于MCP(模型控制流水线)的一体化AI部署架构,涵盖从模型训练、自动部署、实时推理到性能监控的完整闭环系统设计,并结合工业制造、能源、IoT等场景,提供代码实现与落地案例,助力企业实现AI自动化运维与智能化升级。
基于MCP的一体化AI管线:从模型训练到部署监控的全链路解析
|
2月前
|
人工智能 弹性计算 安全
阿里云计算巢私有化MCP市场:企业级AI工具的安全部署新选择
阿里云计算巢私有化MCP市场,依托阿里云弹性计算资源,提供自主可控的私有化部署方案。支持OpenAPI、SSE、StreamableHttp等多种接入方式,结合Higress云原生网关实现高效网络控制,所有工具直接部署在用户云账号下,5分钟极速部署,保障数据安全与使用便捷性。适用于对数据安全要求高、需访问内网资源、服务隔离及统一管理多种MCP工具的企业场景。

热门文章

最新文章