阿里函数计算FC、文件存储NAS和RDS PostgreSQL的应用体验报告

简介: 本次体验的目的,旨在详细介绍如何通过阿里函数计算FC部署ChatGLM6B大语言模型,并借助文件存储NAS和RDS PostgreSQL搭建一个AI知识库问答应用,以实现PDF、TXT、HTML等文件和URL类型资料的轻松读取和处理。

阿里函数计算FC、文件存储NAS和RDS PostgreSQL的应用体验报告


一、引言

近年来,随着人工智能技术的不断发展,越来越多的企业和个人开始尝试利用AI技术提升业务效率和用户体验。其中,基于Serverless框架的应用托管平台和函数计算服务,因其能够显著降低开发成本、简化部署流程,受到了广泛关注。本次体验的目的,旨在详细介绍如何通过阿里函数计算FC部署ChatGLM6B大语言模型,并借助文件存储NAS和RDS PostgreSQL搭建一个AI知识库问答应用,以实现PDF、TXT、HTML等文件和URL类型资料的轻松读取和处理。

二、体验过程

1. 开通基础配置

首先,在阿里云官网注册账号并开通函数计算FC服务、文件存储NAS、RDS PostgreSQL产品。

2. 创建函数计算应用

接着,我们可以通过函数计算FC创建一个应用,这个应用能够利用ChatGLM6B大语言模型实现智能问答功能,支持多种文件格式的输入,如PDF、TXT、HTML等以及URL类型的资料。该应用可以轻松定制,成为一个私人AI助理,为用户提供方便快捷的问答服务。

3. 选择AI大语言模型

从模版中心选择“AI大语言模型”,即可快速创建应用。

4. 关联NAS及RDS PostgreSQL产品

同时,关联RDS PostgreSQL数据库和文件存储NAS,以便于数据的存储和读取。

5. 部署完成

完成以上操作之后,我们只需要等待完成部署,当部署状态显示部署成功,我们就可以体验我们部署的应用了。

6. 产品体验

第一次访问的时候,界面会弹出数据库的相关配置信息,我们需要妥善保存,以备后续的使用。

接着,我们可以导入AI知识库来实现问答应用。在这个过程中,我们可以体验到从文件存储NAS读取PDF、TXT、HTML等文件或URL类型的资料。然后,通过函数计算FC调用ChatGLM6B模型进行文本生成。最后,将生成的文本存储至RDS PostgreSQL数据库中,以供后续查询。

三、体验结果

通过使用阿里函数计算FC、文件存储NAS和RDS PostgreSQL,我们成功地部署了ChatGLM6B大语言模型,并搭建了AI知识库问答应用。该应用能够支持多种类型的文件和URL资料的处理,并能够快速响应用户的查询请求。此外,由于使用了Serverless框架,开发者无需关心底层基础设施的配置和管理,大大降低了开发和运维的成本。

四、体验心得

使用阿里函数计算FC、文件存储NAS和RDS PostgreSQL进行应用部署具有以下优点:

  1. 开发效率高:Serverless框架使得开发者能够专注于业务逻辑的开发,而无需关心底层基础设施的配置和管理。
  2. 运维成本低:Serverless框架按需付费,无需支付空闲时间费用,降低了运维成本。
  3. 弹性伸缩:函数计算FC能够根据请求量自动进行弹性扩容,确保应用的稳定性和高性能。
  4. 集成方便:阿里云的各种服务之间可以方便地进行集成,如函数计算FC可以方便地与RDS PostgreSQL和文件存储NAS进行集成。

然而,也存在一些不足之处:

  1. 冷启动时间:由于Serverless框架的特性,当函数长时间未被调用时,会被停止运行,需要重新启动,这会导致一定的冷启动时间。
  2. 调试和监控:在Serverless框架下,调试和监控可能会比传统架构更为复杂,需要更多的时间和精力投入。

五、部署过程的一些错误信息

部署的过程中,由于某些配置及权限的问题,导致出现了一些小的插曲,不过通过日志可以快速排查问题的原因,并迅速的解决掉。

六、总结

通过本次体验,使我加深了了解如何使用阿里函数计算FC、文件存储NAS和RDS PostgreSQL进行应用部署。尽管存在一些不足之处,但整体而言,这些服务为开发者提供了一个高效、便捷的部署环境。展望未来,我期待这些服务能够进一步优化和完善,以更好地满足开发者的需求。非常感谢阿里提供的这次体验机会!!!

相关实践学习
函数计算部署PuLID for FLUX人像写真实现智能换颜效果
只需一张图片,生成程序员专属写真!本次实验在函数计算中内置PuLID for FLUX,您可以通过函数计算+Serverless应用中心一键部署Flux模型,快速体验超写实图像生成的魅力。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
目录
相关文章
|
6月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
719 30
|
7月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
753 12
|
12月前
|
SQL 分布式计算 Serverless
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
1312 56
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
|
7月前
|
关系型数据库 MySQL 数据库
阿里云数据库RDS费用价格:MySQL、SQL Server、PostgreSQL和MariaDB引擎收费标准
阿里云RDS数据库支持MySQL、SQL Server、PostgreSQL、MariaDB,多种引擎优惠上线!MySQL倚天版88元/年,SQL Server 2核4G仅299元/年,PostgreSQL 227元/年起。高可用、可弹性伸缩,安全稳定。详情见官网活动页。
1279 152
|
7月前
|
关系型数据库 MySQL 数据库
阿里云数据库RDS支持MySQL、SQL Server、PostgreSQL和MariaDB引擎
阿里云数据库RDS支持MySQL、SQL Server、PostgreSQL和MariaDB引擎,提供高性价比、稳定安全的云数据库服务,适用于多种行业与业务场景。
952 156
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
991 31
|
10月前
|
存储 编解码 Serverless
Serverless架构下的OSS应用:函数计算FC自动处理图片/视频转码(演示水印添加+缩略图生成流水线)
本文介绍基于阿里云函数计算(FC)和对象存储(OSS)构建Serverless媒体处理流水线,解决传统方案资源利用率低、运维复杂、成本高等问题。通过事件驱动机制实现图片水印添加、多规格缩略图生成及视频转码优化,支持毫秒级弹性伸缩与精确计费,提升处理效率并降低成本,适用于高并发媒体处理场景。
1151 0
|
7月前
|
人工智能 运维 安全
聚焦 AI 应用基础设施,云栖大会 Serverless AI 全回顾
2025 年 9 月 26 日,为期三天的云栖大会在杭州云栖小镇圆满闭幕。随着大模型技术的飞速发展,我们正从云原生时代迈向一个全新的 AI 原生应用时代。为了解决企业在 AI 应用落地中面临的高成本、高复杂度和高风险等核心挑战,阿里云基于函数计算 FC 发布一系列重磅服务。本文将对云栖大会期间 Serverless+AI 基础设施相关内容进行全面总结。
|
7月前
|
人工智能 Kubernetes 安全
重塑云上 AI 应用“运行时”,函数计算进化之路
回顾历史,电网的修建,深刻地改变了世界的经济地理和创新格局。今天,一个 AI 原生的云端运行时的进化,其意义也远不止于技术本身。这是一次设计哲学的升华:从“让应用适应平台”到“让平台主动理解和适应智能应用”的转变。当一个强大、易用、经济且安全的 AI 运行时成为像水电一样的基础设施时,它将极大地降低创新的门槛。一个独立的开发者、一个小型创业团队,将有能力去创造和部署世界级的 AI 应用。这才是技术平权的真谛,是激发全社会创新潜能的关键。
|
6月前
|
机器学习/深度学习 自然语言处理 算法
48_动态架构模型:NAS在LLM中的应用
大型语言模型(LLM)在自然语言处理领域的突破性进展,很大程度上归功于其庞大的参数量和复杂的网络架构。然而,随着模型规模的不断增长,计算资源消耗、推理延迟和部署成本等问题日益凸显。如何在保持模型性能的同时,优化模型架构以提高效率,成为2025年大模型研究的核心方向之一。神经架构搜索(Neural Architecture Search, NAS)作为一种自动化的网络设计方法,正在为这一挑战提供创新性解决方案。本文将深入探讨NAS技术如何应用于LLM的架构优化,特别是在层数与维度调整方面的最新进展,并通过代码实现展示简单的NAS实验。
338 0

相关产品

  • 函数计算
  • 推荐镜像

    更多