借助PAI-EAS一键部署ChatGLM,并应用LangChain集成外部数据

简介: 【8月更文挑战第8天】借助PAI-EAS一键部署ChatGLM,并应用LangChain集成外部数据

环境部署

本次体验用到了模型在线服务PAI-EAS,所以在正式开始部署体验前,需要先开通服务。如果你是新用户,可以领取免费试用资源。如下:

在模型在线服务PAI-EAS面板,单击立即试用,如下:

点击前往PAI控制台。如下:

从开通服务的时候我们可以很清晰地看到PAI-EAS服务目前支持的地域有北京、上海、杭州、深圳、成都、河源。为了方便,这里就直接选择了杭州。如下:

由于本次体验不需要开通其他服务,所以组合服务这里我们不要勾选,以免产生不必要的费用。

首次开通需要授权,点击授权前往RAM访问控制。如下:

点击同意授权即可。如下:

完成授权后返回点击刷新,继续点击“确认开通并创建默认工作空间”。如下:

稍等片刻即可完成服务的开通。如下:

来到PAI控制台,点击左侧的工作空间列表,单击待操作的工作空间名称,进入对应工作空间内。如下:

在PAI EAS模型在线服务页面,单击部署服务。如下:

在选择部署方式面板,选择自定义部署,单击确定。如下:

在部署服务页面,自定义服务名称,选择镜像部署AI-Web应用,在PAI平台镜像列表中选择chat-llm-webui;镜像版本选择3.0,勾选协议,运行命令配置为:python webui/webui_server.py --port=8000 --model-path=Qwen/Qwen-7B-Chat。如下:

选择公共资源组,选择常规资源配置,如果你选择免费试用资源,则选择试用活动页签的ecs.gn7i-c8g1.2xlarge.limit实例规格。

如果此处使用个人账户资源,推荐选择GPU页签的ecs.gn7i-c8g1.2xlarge,或者选择GPU显存大于24GB规格的实例。

这里尤其要注意的是,本次部署体验参加免费试用抵扣的实例规格,只有如下三种,选择时需要甄别。

ecs.g6.xlarge.limit

ecs.gn6i-c8g1.2xlarge.limit

ecs.gn7i-c8g1.2xlarge.limit

完成如上配置后,点击部署。如下:

回到PAI控制台,在PAI-EAS服务处单击查看日志,可以看到部署时的日志信息。如下:

整个部署过程大约耗时3分钟,当服务状态为运行中时,表明完成部署。如下:

点击“查看Web应用”,即可开始体验了。如下:

如何利用LangChain来集成自己的业务数据,只需简单的上传并初始化即可。如下:

基于集成数据完成chat效率还是非常高的。如下:

基本上做到了秒解。这对于个人或企业知识库的构建帮助还是非常大的。

当然除了服务本身功能的实现外,基于PAI-EAS一键部署不但能带来更好的体验,而且对于服务的监控也是非常详细的。如下:

体验完成后一定要记得释放掉使用的资源,在推理服务页签,单击目标服务操作列下的删除,删除模型服务。如下:

体验总结

1、使用PAI-EAS一键部署ChatGLM和LangChain,大大简化了部署和集成的复杂度,用户无需过多配置即可快速部署ChatGLM模型。

2、LangChain提供了丰富的组件和灵活的配置方式,可以轻松地与外部数据进行交互,满足不同的应用场景需求。此外,LangChain框架的灵活性和高度抽象性使得集成外部数据变得相对简单,用户可以根据需求自定义模型的行为和输出。ChatGLM模型在集成LangChain后,能够结合外部数据生成更加准确和定制化的答案,显著提升了模型的应用效果。

3、ChatGLM模型在PAI-EAS的部署下表现出色,能够快速响应并生成高质量的回答。

4、值得好评的是通过选择免费试用资源或合理规划个人账户资源,可以在不产生过多费用的情况下,体验ChatGLM和LangChain的强大功能。

5、唯一的不足就是服务时常出现不可用,这可能跟使用的是公共资源有关,但好在每次恢复耗时并不长,弹性能力是真的好用。

综上,使用PAI-EAS一键部署ChatGLM,并通过LangChain集成外部数据,为开发人员提供了一个高效、灵活且成本效益高的解决方案。

相关实践学习
AnalyticDB PostgreSQL 企业智能数据中台:一站式管理数据服务资产
企业在数据仓库之上可构建丰富的数据服务用以支持数据应用及业务场景;ADB PG推出全新企业智能数据平台,用以帮助用户一站式的管理企业数据服务资产,包括创建, 管理,探索, 监控等; 助力企业在现有平台之上快速构建起数据服务资产体系
目录
相关文章
|
7月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
简介:本文整理自阿里云高级技术专家李麟在Flink Forward Asia 2025新加坡站的分享,介绍了Flink 2.1 SQL在实时数据处理与AI融合方面的关键进展,包括AI函数集成、Join优化及未来发展方向,助力构建高效实时AI管道。
1004 43
|
7月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
本文整理自阿里云的高级技术专家、Apache Flink PMC 成员李麟老师在 Flink Forward Asia 2025 新加坡[1]站 —— 实时 AI 专场中的分享。将带来关于 Flink 2.1 版本中 SQL 在实时数据处理和 AI 方面进展的话题。
448 0
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
|
7月前
|
SQL 关系型数据库 Apache
从 Flink 到 Doris 的实时数据写入实践 —— 基于 Flink CDC 构建更实时高效的数据集成链路
本文将深入解析 Flink-Doris-Connector 三大典型场景中的设计与实现,并结合 Flink CDC 详细介绍了整库同步的解决方案,助力构建更加高效、稳定的实时数据处理体系。
2848 0
从 Flink 到 Doris 的实时数据写入实践 —— 基于 Flink CDC 构建更实时高效的数据集成链路
|
7月前
|
机器学习/深度学习 SQL 大数据
什么是数据集成?和数据融合有什么区别?
在大数据领域,“数据集成”与“数据融合”常被混淆。数据集成关注数据的物理集中,解决“数据从哪来”的问题;数据融合则侧重逻辑协同,解决“数据怎么用”的问题。两者相辅相成,集成是基础,融合是价值提升的关键。理解其差异,有助于企业释放数据潜力,避免“数据堆积”或“盲目融合”的误区,实现数据从成本到生产力的转变。
什么是数据集成?和数据融合有什么区别?
|
容灾 安全 关系型数据库
数据传输服务DTS:敏捷弹性构建企业数据容灾和集成
数据传输服务DTS提供全球覆盖、企业级跨境数据传输和智能化服务,助力企业敏捷构建数据容灾与集成。DTS支持35种数据源,实现全球化数据托管与安全传输,帮助企业快速出海并高效运营。瑶池数据库的全球容灾、多活及集成方案,结合DTS的Serverless和Insight功能,大幅提升数据传输效率与智能管理水平。特邀客户稿定分享了使用DTS加速全球业务布局的成功经验,展示DTS在数据分发、容灾多活等方面的优势。
454 0
|
人工智能 安全 Dubbo
Spring AI 智能体通过 MCP 集成本地文件数据
MCP 作为一款开放协议,直接规范了应用程序如何向 LLM 提供上下文。MCP 就像是面向 AI 应用程序的 USB-C 端口,正如 USB-C 提供了一种将设备连接到各种外围设备和配件的标准化方式一样,MCP 提供了一个将 AI 模型连接到不同数据源和工具的标准化方法。
7008 111
|
9月前
|
运维 安全 数据管理
Dataphin V5.1 企业级发布:全球数据无缝集成,指标管理全新升级!
企业数据管理难题?Dataphin 5.1版来解决!聚焦跨云数据、研发效率、指标管理和平台运维四大场景,助力数据团队轻松应对挑战。无论是统一指标标准、快速定位问题,还是提升管理安全性,Dataphin都能提供强大支持。3分钟了解新版本亮点,让数据治理更高效!
151 0
|
Java 关系型数据库 MySQL
SpringBoot 通过集成 Flink CDC 来实时追踪 MySql 数据变动
通过详细的步骤和示例代码,您可以在 SpringBoot 项目中成功集成 Flink CDC,并实时追踪 MySQL 数据库的变动。
3103 45
|
机器学习/深度学习 PyTorch 测试技术
LossVal:一种集成于损失函数的高效数据价值评估方法
LossVal是一种创新的机器学习方法,通过在损失函数中引入实例级权重,直接在训练过程中评估数据点的重要性,避免了传统方法中反复重训练模型的高计算成本。该方法适用于回归和分类任务,利用最优传输距离优化权重,确保模型更多地从高质量数据中学习。实验表明,LossVal在噪声样本检测和高价值数据点移除等任务上表现优异,具有更低的时间复杂度和更稳定的性能。论文及代码已开源,为数据价值评估提供了高效的新途径。
356 13
LossVal:一种集成于损失函数的高效数据价值评估方法

相关产品

  • 人工智能平台 PAI