在阿里云快速启动LibreChat轻松玩转AI对话

简介: 本文介绍了LibreChat的基本信息,并通过阿里云计算巢完成了LibreChat的快速部署,使用者不需要自己下载代码,不需要自己安装复杂的依赖,不需要了解底层技术,只需要在控制台图形界面点击几下鼠标就可以快速部署并启动LibreChat,非技术同学也能轻松搞定。

什么是LibreChat

LibreChat是一个增强版的 ChatGPT ,它不仅集成了OpenAI、Assistants API、Azure、Groq 等多种 AI 模型,还支持 GPT-4 Vision、Mistral、Bing 等前沿技术。

作为一个完全开源的自托管系统,LibreChat 提供了多用户支持、预设配置、消息搜索、DALL-E-3 图像生成等丰富功能,并且仍在不断开发中。 更多信息,可访问链接

LibreChat有什么优势

  • 多模型支持:LibreChat支持多种AI模型,包括OpenAI、Azure OpenAI、Anthropic Claude、Google Vertex AI等。用户可以根据需求选择不同的模型,甚至在对话中切换模型。
  • 本地和远程AI服务兼容:除了支持主流的云端AI服务,LibreChat还兼容多种本地AI服务,如Ollama、koboldcpp等,为用户提供更多选择。
  • 丰富的功能:LibreChat提供了许多实用功能,如对话历史保存、消息搜索、自定义预设、多模态对话(支持图像分析)、语音交互等。
  • 插件系统:支持各种插件,如网络访问、DALL-E-3图像生成等,进一步扩展了平台的能力。
  • 多语言支持:LibreChat的用户界面支持多种语言,包括中文、英语、德语、法语等,方便全球用户使用。
  • 安全性和隐私:提供多用户系统、安全认证和审核工具,保护用户数据和隐私。
  • 灵活部署:支持Docker部署、反向代理等多种部署方式,适应不同的使用场景。

如何部署LibreChat

前提条件

  • 已开通阿里云账号
  • 确保账户余额超过100元

重要

使用阿里云资源,需要收费,请仔细阅读阿里云控制台的订单信息,然后再进行下一步操作。

操作步骤

  1. 访问计算巢LibreChat社区版部署链接,按提示填写部署参数,确认参数后点击下一步:确认订单

  1. 确认订单完成后同意服务协议并点击立即创建 进入部署阶段。

  1. 等待部署完成后就可以开始使用服务,进入服务实例详情点击LibreChat链接。

  1. 注册账号或登录已有账号,即可使用LibreChat。

输入邮箱密码后,可进入下面页面。

快速入门LibreChat

多AI模型

首次进入LibreChat,需要设置API Key才可使用对应模型。如下图所示,点击左上角下拉框,按图示操作输入API Key后,即可完成密钥设置。

LibreChat 支持多种 AI 提供商,包括 OpenAI、Azure、Anthropic、Google 等。可通过左上角切换服务商与模型。

文件上传

点击图示位置,可轻松上传文件。

效果:

快捷导出

简单快捷的聊天记录导出和分享给别人,可导出为屏幕截图、markdown、文本、json。

语音输入

使用语音转文本和文本转语音功能,实现免提聊天。自动发送和播放音频支持 OpenAI、Azure OpenAI 和 Elevenlabs。


其他问题

1. 如何进入ECS

点击服务实例详情,进入ECS:

8.jpg 9.jpg

2. 如何添加转发地址

  1. 进入ECS,方式参考问题一。
  2. 输入命令
sudo su
cd /home/admin/application/docker_compose
sudo vim .env

将会进入如下页面

10.jpg

  1. 寻找需要修改的AI模型,本处以OpenAI为例,按下i键,左下角将会出现'--INSERT--'标志,通过方向键移动光标,在第一个红框处(OPEN_REVERSE_PROXY)输入转发地址。

11.jpg

  1. 输入完成后按 ESC 键,左下角'--INSERT--'消失,输入:wq(冒号别漏了),保存退出。

3. 如何添加第三方API模型

  1. 进入ECS,方式参考问题一。
  2. 修改librechat.yaml文件:新增第三方模型,输入命令,文件内容参考链接
sudo su
cd /home/admin/application/docker_compose
sudo vim librechat.yaml

进入librechat.yaml文件(即上面代码中的sudo vim librechat.yaml),此文件中默认已有groq、Mistral、OpenRouster三个模型,如需添加,可按照其格式新增,如下新增了通义千问(Qwen)模型。(URL参考链接,ApiKey参考链接)。修改方式为:

  1. 按下i键,左下角将会出现'--INSERT--'标志,通过方向键移动光标,输入红框处内容;
  2. 输入完成后按 ESC 键,左下角'--INSERT--'消失,输入:wq(冒号别漏了),保存退出。

12.jpg

  1. 修改docker-compose文件:配置读取第三方模型,输入命令:
sudo cp docker-compose.yml docker-compose.override.yml

此时将会新增文件:

11.1.png

进入文件:sudo vim docker-compose.override.yml,输入i进入修改模式,按照如下修改,修改完成后按 ESC 键,然后输入 :wq 退出。

修改前:

13.jpg

修改后:

14.jpg

  1. 重启Docker:输入:sudo docker compose up。
  2. 效果展示:进入LibreChat页面,第三方API模型已显示。

16.jpg


了解更多

本文通过计算巢服务完成了LibreChat的快速部署,什么是计算巢服务?

计算巢是一个开放给企业应用服务商、IT集成服务商、交付服务商、管理服务提供商(以上都统称为服务商)和最终用户的服务管理PaaS平台。服务商能通过计算巢服务更好地在阿里云上部署服务、交付服务及管理服务。最终用户能通过计算巢管理在阿里云上订阅的各类服务商提供的服务。计算巢为服务商和用户提供了更高效、便捷、安全的服务使用体验。点击计算巢服务官方文档了解更多。

参考资料

计算巢服务官方文档

更多信息,请访问计算巢官网

相关实践学习
2048小游戏
基于计算巢&ECS云服务器快速部署,带您畅玩2048小游戏。
相关文章
|
12天前
|
人工智能 Java Serverless
阿里云函数计算助力AI大模型快速部署
随着人工智能技术的快速发展,AI大模型已经成为企业数字化转型的重要工具。然而,对于许多业务人员、开发者以及企业来说,探索和利用AI大模型仍然面临诸多挑战。业务人员可能缺乏编程技能,难以快速上手AI模型;开发者可能受限于GPU资源,无法高效构建和部署AI应用;企业则希望简化技术门槛,以更低的成本和更高的效率利用AI大模型。
65 12
|
2天前
|
机器学习/深度学习 人工智能 运维
阿里云技术公开课直播预告:基于阿里云 Elasticsearch 构建 AI 搜索和可观测 Chatbot
阿里云技术公开课预告:Elastic和阿里云搜索技术专家将深入解读阿里云Elasticsearch Enterprise版的AI功能及其在实际应用。
阿里云技术公开课直播预告:基于阿里云 Elasticsearch 构建 AI 搜索和可观测 Chatbot
|
1天前
|
人工智能 大数据 测试技术
自主和开放并举 探索下一代阿里云AI基础设施固件创新
12月13日,固件产业技术创新联盟产业峰会在杭州举行,阿里云主导的开源固件测试平台发布和PCIe Switch固件技术亮相,成为会议焦点。
|
23天前
|
存储 人工智能 自然语言处理
拥抱Data+AI|B站引入阿里云DMS+X,利用AI赋能运营效率10倍提升
本篇文章针对B站在运营场景中的痛点,深入探讨如何利用阿里云Data+AI解决方案实现智能问数服务,赋能平台用户和运营人员提升自助取数和分析能力,提高价值交付效率的同时为数据平台减负。
拥抱Data+AI|B站引入阿里云DMS+X,利用AI赋能运营效率10倍提升
|
16天前
|
人工智能 NoSQL MongoDB
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
|
10天前
|
人工智能 Cloud Native 调度
阿里云容器服务在AI智算场景的创新与实践
本文源自张凯在2024云栖大会的演讲,介绍了阿里云容器服务在AI智算领域的创新与实践。从2018年推出首个开源GPU容器共享调度方案至今,阿里云容器服务不断推进云原生AI的发展,包括增强GPU可观测性、实现多集群跨地域统一调度、优化大模型推理引擎部署、提供灵活的弹性伸缩策略等,旨在为客户提供高效、低成本的云原生AI解决方案。
|
24天前
|
人工智能 自动驾驶 大数据
预告 | 阿里云邀您参加2024中国生成式AI大会上海站,马上报名
大会以“智能跃进 创造无限”为主题,设置主会场峰会、分会场研讨会及展览区,聚焦大模型、AI Infra等热点议题。阿里云智算集群产品解决方案负责人丛培岩将出席并发表《高性能智算集群设计思考与实践》主题演讲。观众报名现已开放。
|
17天前
|
人工智能 数据可视化 专有云
阿里云飞天企业版获评2024年AI云典型案例
近日,由全球数字经济大会组委会主办、中国信息通信研究院和中国通信企业协会承办的“云·AI·计算国际合作论坛”作为2024全球数字经济大会系列活动之一,在北京举办。论坛以“智启云端,算绘蓝图”为主题,围绕云·AI·计算产业发展、关键技术、最佳实践等展开交流讨论。阿里云飞天企业版异构算力调度平台获评2024年AI云典型案例。
|
22天前
|
存储 人工智能 缓存
官宣开源 阿里云与清华大学共建AI大模型推理项目Mooncake
近日,清华大学和研究组织9#AISoft,联合以阿里云为代表的多家企业和研究机构,正式开源大模型资源池化项目 Mooncake。
|
26天前
|
存储 人工智能 弹性计算
阿里云弹性计算(ECS)提供强大的AI工作负载平台,支持灵活的资源配置与高性能计算,适用于AI训练与推理
阿里云弹性计算(ECS)提供强大的AI工作负载平台,支持灵活的资源配置与高性能计算,适用于AI训练与推理。通过合理优化资源分配、利用自动伸缩及高效数据管理,ECS能显著提升AI系统的性能与效率,降低运营成本,助力科研与企业用户在AI领域取得突破。
45 6
下一篇
DataWorks