耗时一下午,我终于上线了我的 GPT 终端!(内含详细部署方案记录)

简介: 耗时一下午,我终于上线了我的 GPT 终端!(内含详细部署方案记录)

前言

大家好,我是「周三不Coding」。

想来 GPT Terminal 已经好久没更新新功能啦,想到有些朋友仅是看过 GPT Terminal 的演示 Demo,但是还没有实际上手用过。为了让大家快速用上 GPT Terminal ,我决定将其部署到服务器上,让大家尽情地 “白嫖”,而不用亲力亲为地部署!

说干就干,我用了一下午的时间,终于上线了 GPT Terminal

线上地址:gpt-web-terminal.vercel.app/#/

  • 不限次数访问。如果额度用完,请提醒我更新 API Key
  • 出现 Mixed Content 报错,请查看本篇文章对应部分解决!
  • 如果还遇到其它 Bug,麻烦请留言一下或提一下 Issue,万分感谢!

接下来,我给大家分享一下我的部署过程!

部署方案

如下是我最终采取的部署方案:

image.png

  • 前端:Vercel 网站托管服务,一键部署免运维

这绝对是一个神仙网站,如果小伙伴们不知道怎么用的话,可以去百度搜一搜学一学!超级好用!

  • 后端:通过 Docker 容器化,部署到国外云服务器,支持访问 GPT 服务

其实,一开始我准备通过微信云托管来部署后端。但是,经过了一番折腾并部署成功后,发现后端无法访问到 OpenAI 服务。在网上查找了资料后,发现并没有微信云托管相关的解决方案,于是我最后只好放弃啦~

部署记录

环境变量配置

开发环境与生产环境的后端地址、数据库地址不相同,因此需要进行区分。

  • 对于前端而言,通过在 Vercel 中配置环境变量,并修改前端代码中访问后端的地址,通过变量名的形式获取环境变量,而非硬编码形式。
    image.png
  • 对于后端而言,通过区分当前环境,得到不同的配置文件

如下代码位于 server/src/config/getConfig.js 文件中

let config;
const env = process.env.NODE_ENV ?? "local";
if (env === "local") {
  config = require("./config");
} else {
  config = require(`./config.${env}`);
}

配置 Docker

后端通过 Docker 容器化部署,如下为 Dockerfile 文件

  • 采用 node16 轻量级镜像
  • 采用 pm2 进行进程管理、性能监控等
# 使用官方 Node.js 轻量级镜像
# https://hub.docker.com/_/node
FROM node:16-slim
# 定义工作目录
WORKDIR /usr/src/app
# 将本地代码复制到工作目录内
COPY ./ ./
RUN npm install
# 安装 pm2
RUN npm install pm2 -g
# 启动服务
CMD pm2-runtime 'npm start'

通过如下命令构建镜像

docker build -t gpt-terminal-server

解决 Mixed Content 报错

前端通过 Vercel 部署,采用的是 https 协议;而后端是直接通过服务器进行部署,并未做 SSL 证书配置,仍为 http 协议。当部署后,前端访问后端时,会报错:Mixed Content。

暂时使用如下方案解决:

  1. 点击 Site settings
    image.png
  2. 将 「不安全内容」「Insecure content」从 Block 更改为 Allow
    image.png

总结

这就是部署的全部记录啦~

其实这个项目还是比较简单的,通过 VercelDocker 容器化技术,很快就可以将网站上线。

但是为什么我还用了一下午呢?因为我最后想要配置 SSL 证书,用了比较久的时间,还出了点问题,目前还在解决中,但不影响最终使用哈哈哈哈~

这就是今天的全部内容啦~

想要体验的小伙伴,可以点击这里访问该 GPT 终端!不限次数使用!

相关文章
|
弹性计算 自然语言处理 Linux
部署GPT-2大语言模型到基于ECS Intel实例的过程可以分为以下步骤
部署GPT-2大语言模型到基于ECS Intel实例的过程可以分为以下步骤
294 3
|
SQL 前端开发 关系型数据库
LLM大模型实战 —— DB-GPT阿里云部署指南
DB-GPT 是一个实验性的开源应用,它基于FastChat,并使用vicuna-13b作为基础模型, 模型与数据全部本地化部署, 绝对保障数据的隐私安全。 同时此GPT项目可以直接本地部署连接到私有数据库, 进行私有数据处理, 目前已支持SQL生成、SQL诊断、数据库知识问答、数据处理等一系列的工作。
11154 75
|
5月前
|
机器学习/深度学习 自然语言处理 BI
阿里云开发者必备:GPT 从核心原理到企业级部署的全流程指南
GPT基于Transformer解码器架构,通过BPE分词、遮蔽自注意力与堆叠解码器实现自回归生成。结合指令微调与领域适配,已在汽车BI、开发者工具等场景落地。阿里云提供从模型训练到轻量化部署的全链路支持,推动GPT在产业智能化中的深度融合与应用创新。(238字)
648 2
|
5月前
|
人工智能 监控 关系型数据库
阿里云开发者的共性痛点 ——「自建 GPT + 云服务」方案?
某工业客户在阿里云上构建AI故障分析系统时,遭遇云资源适配难、运维重、数据割裂三大瓶颈。试用「向量引擎」后,3行代码对接阿里云生态,冷启动50ms,自动适配CDN/负载均衡,请求延迟降60%;多可用区部署,RTO<30秒,稳定性达99.99%;直连OSS/RDS,实现GPT+私有数据闭环,延迟<1秒;支持等保三级与日志审计,数据零驻留,合规安全;联动阿里云计费,月成本直降70%。平台深度融入阿里云架构,让企业级AI应用一周落地,省时省力更省钱。
151 0
|
9月前
|
人工智能 安全 虚拟化
企业级Win11纯净部署指南|VMware虚拟机安装+GPT分区优化+绕过限制详解(小白必看)
Windows 11 是微软推出的新一代操作系统,以其直观交互和 AI 技术为核心升级亮点。界面采用圆角设计与居中任务栏布局,支持多窗口贴靠分屏、虚拟桌面功能,大幅提升多任务处理效率。系统深度集成了 Copilot 智能助手,提供语音写作、照片编辑等便捷功能,并通过 DirectStorage 和 DirectX 12 Ultimate 技术优化游戏体验。本文详细介绍 Windows 11 的下载、U盘制作及安装步骤,帮助用户快速上手全新系统。
1272 37
|
人工智能 语音技术 iOS开发
MiniCPM-o 2.6:面壁智能开源多模态大模型,仅8B参数量就能媲美GPT-4o,支持实时交互,在ipad等终端设备上运行
MiniCPM-o 2.6 是面壁智能开源的多模态大模型,支持视觉、语音和多模态直播,性能媲美GPT-4o,能够在端侧设备上高效运行。
1017 10
MiniCPM-o 2.6:面壁智能开源多模态大模型,仅8B参数量就能媲美GPT-4o,支持实时交互,在ipad等终端设备上运行
|
人工智能 自然语言处理 Linux
|
自然语言处理 搜索推荐 Serverless
基于函数计算部署GPT-Sovits模型实现语音生成
阿里云开发者社区邀请您参加“基于函数计算部署GPT-Sovits模型实现语音生成”活动。完成指定任务即可获得收纳箱一个。活动时间从即日起至2024年12月13日24:00:00。快来报名吧!
230 8
|
弹性计算 自然语言处理 搜索推荐
活动实践 | 基于函数计算部署GPT-Sovits模型实现语音生成
通过阿里云函数计算部署GPT-Sovits模型,可快速实现个性化声音的文本转语音服务。仅需少量声音样本,即可生成高度仿真的语音。用户无需关注服务器维护与环境配置,享受按量付费及弹性伸缩的优势,轻松部署并体验高质量的语音合成服务。
|
人工智能 API Windows
免费部署本地AI大语言模型聊天系统:Chatbox AI + 马斯克grok2.0大模型(简单5步实现,免费且比GPT4.0更好用)
本文介绍了如何部署本地AI大语言模型聊天系统,使用Chatbox AI客户端应用和Grok-beta大模型。通过获取API密钥、下载并安装Chatbox AI、配置模型,最终实现高效、智能的聊天体验。Grok 2大模型由马斯克X-AI发布,支持超长文本上下文理解,免费且易于使用。

热门文章

最新文章