持续集成与部署(四):部署 前后端分离

简介: 持续集成与部署(四):部署 前后端分离

1. 前后端分离的意义

1.1 分离前的前后端开发

后端程序渲染 HTML 模板,代理 JS / CSS / SVG / PNG 等前端静态资源。

image.png

  • 前后端不分离的问题

    1. 前后端开发协作困难
    2. 发布频率耦合
    3. 联调效率低
    4. 性能低下:前端资源的请求耗尽连接

1.2 分离后的前后端开发

  • 主要包含两个方面

    1. 工程拆分:不在同一工程中开发,有个字独立的开发节奏、构建发布策略
    2. 技术拆分:使用各自熟悉和易用的技术,两者完全通过 RESTFUL API 交流
  • 前后端分离的好处

    1. 解耦前后端架构
    2. 分工明确、界限清晰
    3. 提高开发效率
    4. 支持前后端不同的迭代频率
    5. 支持各自更适合的构建发布策略
  • 为什么现在可以实现前后端分离

    因为前端技术的工程化模块化组件化的方案已经进入成熟期,工具链完善,不需要作为后端的附庸了。

  • 现状

    现在前后端分离的方案可以说是百花齐放了。

    SSR 同构到 BFFServerlessGraphQL...

2. 前后端分离的实现

2.1 洪荒时代:不分离

在前后端不分离的时代,最典型的就是 MVC 架构了

image.png

MVC 架构中,前端作为 View 层通过后端的 Controller 去渲染,构建和发布的流程上,前端是后端的复用

2.2 探索时代:Nginx代理静态资源

为了实现前后端分离,有人提出了采用 Nginx 代理静态资源这种方案。

这种方案不使用页面模板,把 HTML 直接作为静态资源,通过 Nginx 或者 Apache HTTP Server 代理 HTML 和静态资源。

如下图的 Nginx 配置,它直接代理了所有对 HTMLCSSJS 的请求,对 /api 的请求会转发到真正的服务上。
image.png

Nginx代理静态资源是一个比较激进的方案,这种方式可以实现前后端分离,不过它的问题也不少:

  1. 只适合纯客户端渲染(CSR),只适合 SPA这种单页面应用(页面的本身就是一个空的div,具体内容由js代码在浏览器中生成)
  2. 首屏性能差(浏览器下载JS、执行JS都需要过程),对 C 端用户不友好(白屏)
  3. SEO 效果约等于0

2.3 探索时代:后端渲染页面 + 静态资源代理

为了解决 SEO 的问题,又有人提出了 后端渲染页面 + 静态资源代理 这种方案。

这种方案的特点是依然由后端渲染 HTML 模板,但是其他静态资源从 CDN 拉取。
前后端工程在构建时组合,后端此时拿到模板,模板中引用的资源的 URL 指向 CDN

这种方案解决了 SEO 的问题,也成功的拆分了前后端工程,但是依然存在问题:

  1. 流程依然耦合,多了一步模板联调
  2. 前端发布导致后端发布
  3. 前端需要学习后端模板语法(后端如果是 JAVA,那页面模板很可能还是 JSP

2.4 黄金时代:大前端

直到 Node BFF 的出现,前后端分离才进入了一个比较理想的时代

Node BFF:Backend For Frontend,属于前端的后端。利用 NodeJS 编写 BFF 层,可以用于模板渲染和接口聚合。

image.png

  • 同构

    同构是利用 Vue/React 这种前端框架提供的服务端渲染能力,在服务端就将页面渲染好,本质上还是一个BFF。
    但是使用 SSR 的好处是,我们可以像普通的 SPA 单页面一样去写应用,并且它还解决了普通的 SPA 单页面首屏性能低、SEO 效果差问题。

    SSR的代表是 VueNUXTJSReactNEXTJS

image.png

相关文章
|
监控 前端开发 测试技术
如何实现前端工程化的持续集成和持续部署?
通过以上步骤,可以建立一套完整的前端工程化 CI/CD 流程,实现前端代码从开发、测试、构建到部署的全自动化,提高开发效率、保证代码质量,快速响应用户需求和市场变化。
|
9月前
|
弹性计算 机器人 应用服务中间件
一键部署开源Qwen3并集成到钉钉、企业微信
Qwen3系列模型现已正式发布并开源,包含8款“混合推理模型”,其中涵盖两款MoE模型(Qwen3-235B-A22B与Qwen3-30B-A3B)及六个Dense模型。阿里云计算巢已支持Qwen3-235B-A22B和Qwen3-32B的私有化部署,用户可通过计算巢轻松完成部署,并借助AppFlow集成至钉钉机器人或企业微信。文档详细介绍了从模型部署、创建应用到配置机器人的全流程,帮助用户快速实现智能助手的接入与使用。
811 19
一键部署开源Qwen3并集成到钉钉、企业微信
|
7月前
|
存储 文字识别 自然语言处理
通义大模型在文档自动化处理中的高效部署指南(OCR集成与批量处理优化)
本文深入探讨了通义大模型在文档自动化处理中的应用,重点解决传统OCR识别精度低、效率瓶颈等问题。通过多模态编码与跨模态融合技术,通义大模型实现了高精度的文本检测与版面分析。文章详细介绍了OCR集成流程、批量处理优化策略及实战案例,展示了动态批处理和分布式架构带来的性能提升。实验结果表明,优化后系统处理速度可达210页/分钟,准确率达96.8%,单文档延迟降至0.3秒,为文档处理领域提供了高效解决方案。
803 1
|
8月前
|
JSON 缓存 并行计算
NVIDIA 实现通义千问 Qwen3 的生产级应用集成和部署
阿里巴巴近期开源了通义千问Qwen3大语言模型(LLM),包含两款混合专家模型(MoE)235B-A22B与30B-A3B,以及六款稠密模型(Dense)从0.6B到32B不等。开发者可基于NVIDIA GPU使用TensorRT-LLM、Ollama、SGLang、vLLM等框架高效部署Qwen3系列模型,实现快速词元生成和生产级应用开发。
|
11月前
|
人工智能 Kubernetes jenkins
容器化AI模型的持续集成与持续交付(CI/CD):自动化模型更新与部署
在前几篇文章中,我们探讨了容器化AI模型的部署、监控、弹性伸缩及安全防护。为加速模型迭代以适应新数据和业务需求,需实现容器化AI模型的持续集成与持续交付(CI/CD)。CI/CD通过自动化构建、测试和部署流程,提高模型更新速度和质量,降低部署风险,增强团队协作。使用Jenkins和Kubernetes可构建高效CI/CD流水线,自动化模型开发和部署,确保环境一致性并提升整体效率。
|
6月前
|
物联网 Linux 开发者
快速部署自己私有MQTT-Broker-下载安装到运行不到一分钟,快速简单且易于集成到自己项目中
本文给物联网开发的朋友推荐的是GMQT,让物联网开发者快速拥有合适自己的MQTT-Broker,本文从下载程序到安装部署手把手教大家安装用上私有化MQTT服务器。
1674 5
|
8月前
|
人工智能 安全 Shell
Jupyter MCP服务器部署实战:AI模型与Python环境无缝集成教程
Jupyter MCP服务器基于模型上下文协议(MCP),实现大型语言模型与Jupyter环境的无缝集成。它通过标准化接口,让AI模型安全访问和操作Jupyter核心组件,如内核、文件系统和终端。本文深入解析其技术架构、功能特性及部署方法。MCP服务器解决了传统AI模型缺乏实时上下文感知的问题,支持代码执行、变量状态获取、文件管理等功能,提升编程效率。同时,严格的权限控制确保了安全性。作为智能化交互工具,Jupyter MCP为动态计算环境与AI模型之间搭建了高效桥梁。
579 2
Jupyter MCP服务器部署实战:AI模型与Python环境无缝集成教程
|
jenkins Devops Java
DevOps实践:Jenkins在持续集成与持续部署中的价值
【10月更文挑战第27天】在快速发展的软件开发领域,DevOps实践日益重要。Jenkins作为一款流行的开源自动化服务器,在持续集成(CI)和持续部署(CD)中扮演关键角色。本文通过案例分析,探讨Jenkins在Java项目中的应用,展示其自动化构建、测试和部署的能力,提高开发效率和软件质量。
406 2
|
存储 监控 Devops
DevOps实践:持续集成/持续部署(CI/CD)的实战指南
DevOps实践:持续集成/持续部署(CI/CD)的实战指南
|
11月前
|
弹性计算 人工智能 应用服务中间件
一键部署开源DeepSeek并集成到企业微信
DeepSeek近期发布了两款先进AI模型V3和R1,分别适用于通用应用和推理任务。由于官方API流量过大,建议通过阿里云的计算巢进行私有化部署,以确保稳定使用。用户无需编写代码即可完成部署,并可通过AppFlow轻松集成到钉钉、企业微信等渠道。具体步骤包括选择适合的机器资源、配置安全组、创建企业微信应用及连接流,最后完成API接收消息配置和测试应用。整个过程简单快捷,帮助用户快速搭建专属AI服务。
1988 7
一键部署开源DeepSeek并集成到企业微信