使用 Websoft9 面板部署 LobeChat,打造个人 AI 大脑

简介: 本书详细介绍了从服务器环境准备到LobeChat部署与维护的全过程。首先,指导用户选购云服务器并配置安全组和SSH登录;接着,通过Websoft9面板一键安装并初始化,支持域名解析。随后,重点讲解了LobeChat的部署方法,包括应用市场和手动部署,并深入探讨多模型接入及插件扩展。最后,提供了日常维护命令和常见问题解决方法,确保系统稳定运行。适合新手及进阶用户参考。

第一章:服务器环境准备

1.1 云服务器选购与配置

  1. 选择云服务商
    • 推荐平台:阿里云、腾讯云、AWS Lightsail(新手可选厂商提供的“轻量应用服务器”)。
    配置建议
    测试用途:1核CPU / 2GB内存 / 50GB SSD(最低配置,支持10人以内对话)。
    生产用途:2核CPU / 4GB内存 / 100GB SSD(支持并发请求及插件运行)。
    操作系统:优先选择 Ubuntu 22.04 LTS(兼容性最佳)。

  2. 安全组(防火墙)配置
    • 登录云平台控制台,进入服务器安全组设置:
    ◦ 开放入方向端口:80(HTTP)、443(HTTPS)、3000(LobeChat)、9000(Websoft9面板)。
    ◦ 示例(阿里云规则):

   协议类型: TCP  
   端口范围: 80,443,3000,9000  
   授权对象: 0.0.0.0/0(或指定IP段提升安全性)
  1. SSH 登录服务器
    • Windows 用户:使用 PuTTY 或 PowerShell 的 ssh 命令。
    • Mac/Linux 用户:直接使用终端执行:

    ssh root@你的服务器IP  
    # 输入服务器密码(首次登录后建议设置SSH密钥登录)
    

第二章:Websoft9 面板安装与初始化

2.1 一键安装面板

  1. 执行安装脚本

    # 下载安装脚本(国内服务器可添加镜像加速参数)
    wget https://raw.githubusercontent.com/Websoft9/StackHub/main/scripts/install.sh
    # 添加执行权限并运行
    chmod +x install.sh
    sudo ./install.sh
    

    安装选项说明
    ◦ 自动安装 Docker、Nginx、MySQL 等依赖。
    ◦ 默认安装路径:/data/websoft9
    ◦ 安装日志路径:/var/log/websoft9_install.log(可查看错误信息)。

  2. 面板初始化
    • 安装完成后,浏览器访问:http://服务器IP:9000
    首次登录配置
    ◦ 设置管理员账号(建议密码复杂度:大小写+数字+符号)。
    ◦ 绑定邮箱(用于证书到期提醒等通知)。
    网络设置
    ◦ 进入「系统管理」>「网络」,检查端口状态是否为“已放行”。

2.2 域名解析(可选但推荐)

  1. 域名购买与备案
    • 国内服务器需完成域名ICP备案(阿里云/腾讯云提供备案服务)。
    • 海外服务器无需备案,可直接解析。

  2. 添加 DNS 解析记录
    • 登录域名服务商控制台,添加A记录:

    主机记录: chat(子域名,根据需求自定义)  
    记录类型: A  
    记录值: 服务器公网IP  
    TTL: 600秒(默认)
    

    • 验证解析是否生效:

    ping chat.yourdomain.com  # 查看是否返回服务器IP
    

第三章:LobeChat 部署实战

3.1 通过应用市场部署(推荐)

  1. 搜索并安装 LobeChat
    • 登录 Websoft9 面板,进入「应用市场」,搜索“LobeChat”。
    • 点击“安装”按钮,进入配置页面。

  2. 详细参数配置
    基础信息
    ◦ 应用名称:自定义(如 MyAIChat)。
    ◦ 域名:填写已解析的域名(如 chat.yourdomain.com)。
    端口设置
    ◦ 容器端口:3000(不可修改,镜像内固定)。
    ◦ 主机端口:3000(若冲突可改为其他端口,需同步调整安全组)。
    环境变量(关键配置):

    OPENAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx  # 必填  
    ACCESS_CODE=mysecret123  # 可选,用于访问控制  
    MODEL_PROVIDER=openai  # 默认OpenAI,可选azure,claude等  
    AZURE_API_VERSION=2023-05-15  # 如果使用Azure需填写
    

    存储卷配置(持久化数据):
    ◦ 添加路径映射:容器内 /app/data 映射到主机 /data/lobe_data(防止容器重启数据丢失)。

  3. 启动与验证
    • 点击“提交”后,等待容器状态变为“运行中”。
    • 查看实时日志:进入容器详情页,检查是否有 Server listening on port 3000 日志。

3.2 手动部署(应用市场无镜像时)

  1. 创建自定义容器
    • 进入「容器」>「创建容器」,填写以下参数:

    镜像名称: lobehub/lobe-chat:latest  
    重启策略: Always(容器崩溃自动重启)  
    网络模式: bridge(默认)  
    端口映射: 3000:3000(主机端口:容器端口)  
    环境变量: 同3.1章节
    
  2. 绑定域名与HTTPS
    • 进入「网站」>「添加站点」,配置反向代理:
    ◦ 域名:chat.yourdomain.com
    ◦ 代理目标:http://localhost:3000
    SSL证书配置
    ◦ 选择“Let's Encrypt免费证书”,勾选“强制HTTPS”。
    ◦ 证书自动续签:Websoft9 默认启用定时任务。


第四章:LobeChat 高级配置

4.1 接入多模型供应商

  1. Azure OpenAI 配置
    • 环境变量调整:

    MODEL_PROVIDER=azure  
    AZURE_API_KEY=你的Azure密钥  
    AZURE_API_VERSION=2023-05-15  
    AZURE_ENDPOINT=https://your-resource.openai.azure.com
    
  2. Claude 模型支持
    • 注册 Anthropic 获取API密钥。
    • 添加环境变量:

    ANTHROPIC_API_KEY=sk-ant-xxx
    

4.2 插件扩展

  1. 启用插件功能
    • 在 LobeChat 界面进入「设置」>「插件」,开启所需插件:
    联网搜索:需配置 SearXNG 自建搜索代理或使用付费API。
    图片生成:接入 Stable Diffusion API 或 Midjourney(需第三方服务支持)。

  2. 自定义插件开发
    • 参考 LobeChat Plugin SDK 开发私有插件。
    • 将插件代码挂载到容器内 /app/plugins 目录。


第五章:维护与故障排除

5.1 日常维护命令

  1. 备份数据

    # 压缩数据目录
    tar -czvf /backup/lobe_backup_$(date +%F).tar.gz /data/lobe_data
    # 上传至云存储(如AWS S3)
    aws s3 cp /backup/lobe_backup_2023-10-01.tar.gz s3://your-bucket/
    
  2. 监控资源占用
    • Websoft9 内置监控:查看「仪表盘」的 CPU/内存/磁盘图表。
    • 手动检查:

    htop  # 实时进程监控
    df -h  # 查看磁盘空间
    

5.2 常见问题处理

  1. API 密钥失效
    • 症状:对话返回 401 Unauthorized
    • 解决:重新生成密钥后,在 Websoft9 面板中更新环境变量并重启容器。

  2. 端口冲突
    • 症状:容器启动失败,日志显示 address already in use
    • 解决:

    lsof -i :3000  # 查看占用进程
    kill -9 PID    # 结束冲突进程
    
  3. 国内服务器访问OpenAI限制
    • 方案一:使用境外服务器反向代理 OpenAI API。
    • 方案二:替换为国内合规模型(如智谱AI、文心一言)。


附:LobeChat 效果验证

  1. 基础对话测试

    curl -X POST http://localhost:3000/api/chat \
    -H "Content-Type: application/json" \
    -d '{"message": "你好,请介绍你自己", "accessCode": "mysecret123"}'
    # 预期返回包含 "我是由LobeHub打造的AI助手"
    
  2. 性能压测(可选)
    使用 k6 模拟并发请求:

    import http from 'k6/http';
    export const options = {
          vus: 10, duration: '30s' };
    export default function () {
         
      http.post('http://chat.yourdomain.com/api/chat', JSON.stringify({
         
        message: "Hello",
        accessCode: "mysecret123"
      }), {
          headers: {
          'Content-Type': 'application/json' } });
    }
    

通过以上步骤,您可完成从零开始的企业级 LobeChat 部署。如遇问题,可参考 LobeChat 官方文档 或加入 Websoft9 用户社区获取技术支持。

目录
相关文章
|
9天前
|
存储 机器学习/深度学习 人工智能
告别信息焦虑,用这个国产AI工具做知识管理,大脑终于解放了
文章介绍了纳米AI知识库作为“第二大脑”的强大功能。它能高效管理海量信息,支持54种文件格式上传,自动提取关键数据并打标签,轻松整合工作与生活中的碎片化信息。通过场景测试显示,在工作和生活中,纳米AI可快速生成报告、提供精准数据,极大提升效率。其共享机制还促进了团队协作,释放了创造力,让用户从琐碎事务中解脱,专注于深度思考与创新。
|
25天前
|
人工智能 程序员 API
Motia:程序员福音!AI智能体三语言混编,零基础秒级部署
Motia 是一款专为软件工程师设计的 AI Agent 开发框架,支持多种编程语言,提供零基础设施部署、模块化设计和内置可观测性功能,帮助开发者快速构建和部署智能体。
127 15
Motia:程序员福音!AI智能体三语言混编,零基础秒级部署
|
2月前
|
人工智能 Kubernetes jenkins
容器化AI模型的持续集成与持续交付(CI/CD):自动化模型更新与部署
在前几篇文章中,我们探讨了容器化AI模型的部署、监控、弹性伸缩及安全防护。为加速模型迭代以适应新数据和业务需求,需实现容器化AI模型的持续集成与持续交付(CI/CD)。CI/CD通过自动化构建、测试和部署流程,提高模型更新速度和质量,降低部署风险,增强团队协作。使用Jenkins和Kubernetes可构建高效CI/CD流水线,自动化模型开发和部署,确保环境一致性并提升整体效率。
|
17天前
|
人工智能 自然语言处理 API
AutoAgent:无需编程!接入DeepSeek用自然语言创建和部署AI智能体!港大开源框架让AI智能体开发变成填空题
香港大学推出的AutoAgent框架通过自然语言交互实现零代码创建AI智能体,支持多模型接入与自动化工作流编排,在GAIA基准测试中表现优异。
151 16
AutoAgent:无需编程!接入DeepSeek用自然语言创建和部署AI智能体!港大开源框架让AI智能体开发变成填空题
|
10天前
|
存储 人工智能 监控
一键部署 Dify + MCP Server,高效开发 AI 智能体应用
本文将着重介绍如何通过 SAE 快速搭建 Dify AI 研发平台,依托 Serverless 架构提供全托管、免运维的解决方案,高效开发 AI 智能体应用。
1706 5
|
1月前
|
人工智能 弹性计算 Ubuntu
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
本文介绍了如何使用阿里云提供的DeepSeek-R1大模型解决方案,通过Chatbox和Dify平台调用百炼API,实现稳定且高效的模型应用。首先,文章详细描述了如何通过Chatbox配置API并开始对话,适合普通用户快速上手。接着,深入探讨了使用Dify部署AI应用的过程,包括选购云服务器、安装Dify、配置对接DeepSeek-R1模型及创建工作流,展示了更复杂场景下的应用潜力。最后,对比了Chatbox与Dify的输出效果,证明Dify能提供更详尽、精准的回复。总结指出,阿里云的解决方案不仅操作简便,还为专业用户提供了强大的功能支持,极大提升了用户体验和应用效率。
1544 19
从零开始即刻拥有 DeepSeek-R1 满血版并使用 Dify 部署 AI 应用
|
1月前
|
人工智能 安全 数据可视化
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
Gemma 3 是谷歌最新推出的开源多模态AI模型,支持超过35种语言,具备文本、图像及短视频处理能力,提供四种模型尺寸,优化单GPU性能,适用于多种AI应用场景。
331 8
一键部署谷歌最新开源多模态AI模型 Gemma 3:单GPU性能碾压Llama!支持35+种语言
|
19天前
|
人工智能 JSON 自然语言处理
31.3K star!开源免费本地AI神器,一键部署多模态大模型!
LocalAI 是一款革命性的开源AI框架,专为本地化部署设计。它完美复现了OpenAI的API接口,支持运行各类开源大模型(如LLaMA3、Phi-2、Stable Diffusion等),无需GPU即可在普通电脑上实现:
|
26天前
|
存储 人工智能 固态存储
轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配部署指南
随着AI技术发展,大语言模型成为产业智能化的关键工具。DeepSeek系列模型以其创新架构和高效性能备受关注,其中R1-1.5B作为参数量最小的版本,适合资源受限场景。其部署仅需4核CPU、8GB RAM及15GB SSD,适用于移动对话、智能助手等任务。相比参数更大的R1-35B与R1-67B+,R1-1.5B成本低、效率高,支持数学计算、代码生成等多领域应用,是个人开发者和初创企业的理想选择。未来,DeepSeek有望推出更多小型化模型,拓展低资源设备的AI生态。
188 8
|
1月前
|
人工智能 弹性计算 运维