用docker和nginx部署前端项目访问本地java网关gateway服务

简介: 本地开发 java 微服务项目,但是拿到的对应的web前端项目只有打包编译过后的 dist 目录里的静态资源(里面只有一个index.html和一些编译过后的 js、css文件),前端接口需要先访问到 java 的网关服务,然后网关里再做转发

需求背景:本地开发 java 微服务项目,但是拿到的对应的web前端项目只有打包编译过后的 dist 目录里的静态资源(里面只有一个index.html和一些编译过后的 js、css文件),前端接口需要先访问到 java 的网关服务,然后网关里再做转发。
1.png

因为没有前端源码,也不能像正常开发中的前端项目一样,我们可以随便修改代理访问任意服务地址,而且只能通过 nginx 之类的服务器实现部署访问和代理接口地址。

解决步骤

通过在本地安装docker来运行nginx服务器

一、安装 docker

直接去docker官网下载安装好docker,windows、mac都有对应的版本

二、拉取 nginx 镜像

直接拉取最新版本的nginx

docker pull nginx

三、添加 docker-compose 配置文件

直接利用docker-compose来启动容器,就不需要自己手动一行一行来敲命令了。在前端静态资源目录里新建 docker-compose.yml 文件:

version: "3"
services:
  nginx:
    image: nginx
    ports:
        - "8801:8801" # 前端项目访问端口(宿主机:容器内)
    volumes: # 数据卷目录映射(宿主机:容器内)
        - ./nginx.conf:/etc/nginx/nginx.conf # 配置文件
        - ./:/usr/share/nginx/html  # 项目html文件
        - ./log:/var/log/nginx  # 日志文件(方便排查问题,不要也可以)

四、添加 nginx 配置文件

在前端静态资源目录里新建 nginx.conf 文件:

#user  nobody;
worker_processes  1;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
    upstream app-gateway { # 负载均衡
        server host.docker.internal:51601; # 网关服务的地址和端口
    }
    server {
        listen 8801;
        location / {
            root /usr/share/nginx/html;
            index index.html;
        }

        location ~/app/(.*) {
            proxy_pass http://app-gateway/$1;
            proxy_set_header HOST $host; # 不改变源请求头的值
            proxy_pass_request_body on; # 开启获取请求体
            proxy_pass_request_headers on; # 开启获取请求头
            proxy_set_header X-Real-IP $remote_addr; # 记录真实发出请求的客户端IP
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # 记录代理信息
        }
    }
}
  • 注意 nginx 里的前端目录/usr/share/nginx/html和配置文件/etc/nginx/nginx.conf,在上面第三步里已经通过 docker 的数据卷 volumns 挂载到宿主机目录里了。

还有就是因为前端项目是运行在 docker 容器里的,但是前端接口是要访问宿主机上的网关服务,这就涉及到 docker 容器和外部宿主机通信的问题,所以上面的网关地址不能写 localhost 或 127.0.0.1(这实际是在访问docker内的本地服务),而是要写成真实的 ip,可以通过 ipconfig 或 ifconfig(mac、linux系统)命令查看。

不过上面用命令获取到的这个本机ip地址是可能会变的,所以最好的方式是直接写成 host.docker.internal,这个就指代宿主机的真实ip,注意低版本的docker不支持这个。

五、运行前端服务

直接在前端静态资源目录里输入命令:docker-compose up,运行成功了,就可以在本地浏览器里访问前端和后端网关服务了:
2.png

目录
相关文章
|
6天前
|
监控 Java 应用服务中间件
tomcat相关概念与部署tomcat多实例-zabbix监控(docker部署)
通过上述步骤,您可以在Ubuntu系统上成功编译并安装OpenCV 4.8。这种方法不仅使您能够定制OpenCV的功能,还可以优化性能以满足特定需求。确保按照每一步进行操作,以避免常见的编译问题。
39 23
|
7天前
|
监控 Java 应用服务中间件
tomcat相关概念与部署tomcat多实例-zabbix监控(docker部署)
通过上述步骤,您可以在Ubuntu系统上成功编译并安装OpenCV 4.8。这种方法不仅使您能够定制OpenCV的功能,还可以优化性能以满足特定需求。确保按照每一步进行操作,以避免常见的编译问题。
39 22
|
10天前
|
监控 Java 应用服务中间件
tomcat相关概念与部署tomcat多实例-zabbix监控(docker部署)
通过上述步骤,您可以在Ubuntu系统上成功编译并安装OpenCV 4.8。这种方法不仅使您能够定制OpenCV的功能,还可以优化性能以满足特定需求。确保按照每一步进行操作,以避免常见的编译问题。
51 25
|
22天前
|
Ubuntu Linux 开发工具
docker 是什么?docker初认识之如何部署docker-优雅草后续将会把产品发布部署至docker容器中-因此会出相关系列文章-优雅草央千澈
Docker 是一个开源的容器化平台,允许开发者将应用程序及其依赖项打包成标准化单元(容器),确保在任何支持 Docker 的操作系统上一致运行。容器共享主机内核,提供轻量级、高效的执行环境。本文介绍如何在 Ubuntu 上安装 Docker,并通过简单步骤验证安装成功。后续文章将探讨使用 Docker 部署开源项目。优雅草央千澈 源、安装 Docker 包、验证安装 - 适用场景:开发、测试、生产环境 通过以上步骤,您可以在 Ubuntu 系统上成功安装并运行 Docker,为后续的应用部署打下基础。
docker 是什么?docker初认识之如何部署docker-优雅草后续将会把产品发布部署至docker容器中-因此会出相关系列文章-优雅草央千澈
|
11天前
|
SQL 关系型数据库 MySQL
docker-compose部署mysql8
使用docker-compose容器化部署mysql8
|
3月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
260 14
|
3月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
70 0
|
3月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
3月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
3月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
170 1