【Docker Compose】

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
Redis 开源版,标准版 2GB
推荐场景:
搭建游戏排行榜
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
简介: 使用微服务架构的应用系统一般包含若干个微服务,每个微服务一般都会部署多个实例。如果每个微服务都要手动启停,那么效率之低、维护量之大可想而知。本节课将讨论如何使用 Docker Compose来轻松、高效地管理容器。为了简单起见将 Docker Compose简称为 Compose。

文章目录

Docker Compose介绍

docker compose安装步骤

Docker Compose入门示例

Docker Compose管理容器的结构

docker-compose.yml常用指令

image

build

command

links

external_links

ports

expose

volumes

volumes_from

environment

env_file

extends

net

dns

dns_search

其他

编排电商项目依赖环境

常用的一些docker-compose命令:


Docker Compose介绍


使用微服务架构的应用系统一般包含若干个微服务,每个微服务一般都会部署多个实例。如果每个微服务都要手动启停,那么效率之低、维护量之大可想而知。本节课将讨论如何使用 Docker Compose来轻松、高效地管理容器。为了简单起见将 Docker Compose简称为 Compose。

Compose 是一个用于定义和运行多容器的Docker应用的工具。使用Compose,你可以在一个配置文件(yaml格式)中配置你应用的服务,然后使用一个命令,即可创建并启动配置中引用的所有服务。下面我们进入Compose的实战吧


Docker Compose的安装

Compose的安装有多种方式,例如通过shell安装、通过pip安装、以及将compose作为容器安装等等。本文讲解通过shell安装的方式。其他安装方式如有兴趣,可以查看Docker的官方文档:https://docs.docker.com/compose/install/


docker compose安装步骤


sudo curl -L "https://github.com/docker/compose/releases/download/1.28.6/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
docker-compose --version


Docker Compose入门示例


Compose的使用非常简单,只需要编写一个docker-compose.yml,然后使用docker-compose 命令操作即可。docker-compose.yml描述了容器的配置,而docker-compose 命令描述了对容器的操作。我们首先通过一个示例快速入门:

还记得上节课,我们使用Dockerfile为项目microservice-eureka-server构建Docker镜像吗?我们还以此项目为例测试


我们在microservice-eureka-server-0.0.1-SNAPSHOT.jar所在目录的上一级目录,创建docker-compose.yml 文件。


目录树结构如下:


├── docker-compose.yml
└── eureka
    ├── Dockerfile
    └── microservice-eureka-server-0.0.1-SNAPSHOT.jar

然后在docker-compose.yml 中添加内容如下:


version: '3.8'
services:
  eureka:             #指定服务名
    image: microservice-eureka-server:0.0.1  #指定镜像名称
    build: ./eureka   #指定Dockfile所在路径
    ports:
      - "8761:8761"   #指定端口映射
    expose:
      - 8761          #声明容器对外暴露的端口

在docker-compose.yml 所在路径执行:

docker-compose up (后面加-d可以后台启动)


966594432ef24cda97b9734eed15ec70.png


如上图,compose启动会做几件事:

1、创建一个默认的网络app_default,默认以compose所在文件目录名加"_default"命名,compose内的所有容器都会加入此网络,可以相互用服务名访问。

2、如果镜像 microservice-eureka-server:0.0.1 不存在先构建镜像,如果镜像存在则不构建,加上 --build 参数可以强制先构建镜像,如果镜像之前构建过且构建文件没有变化或构建的内容没有变化,就算加上 --build 参数也不会重新构建。

3、根据构建的镜像创建一个名称叫 app_eureka_1 的容器。

4、启动容器。


访问:http://宿主机IP:8761/ ,发现可以正常访问eureka主页。


Docker Compose管理容器的结构


Docker Compose将所管理的容器分为三层,分别是工程( project),服务(service)以及容器( container)。 Docker Compose运行目录下的所有文件( docker-compose.yml、 extends文件或环境变量文件等)组成一个工程(默认为 docker-compose.yml所在目录的目录名称)。一个工程可包含多个服务,每个服务中定义了容器运行的镜像、参数和依赖,一个服务可包括多个容器实例。


同一个docker compose内部的容器之间可以用服务名相互访问,服务名就相当于hostname,可以直接 ping 服务名,得到的就是服务对应容器的ip,如果服务做了扩容,一个服务对应了多个容器,则 ping 服务名 会轮询访问服务对应的每台容器ip ,docker底层用了LVS等技术帮我们实现这个负载均衡。


docker-compose.yml常用指令


image


指定镜像名称或者镜像id,如果该镜像在本地不存在,Compose会尝试pull下来。

示例:


image: java

build


指定Dockerfile文件的路径。可以是一个路径,例如:


build: ./dir

也可以是一个对象,用以指定Dockerfile和参数,例如:


build:
  context: ./dir
  dockerfile: Dockerfile-alternate
  args:
    buildno: 1

command


覆盖容器启动后默认执行的命令。

示例:


command: bundle exec thin -p 3000

也可以是一个list,类似于Dockerfile总的CMD指令,格式如下:


command: [bundle, exec, thin, -p, 3000]


显示链接到其他服务中的容器。可以指定服务名称和链接的别名使用SERVICE:ALIAS 的形式,或者只指定服务名称,示例:


web:
  links:
   - db
   - db:database
   - redis

external_links


表示链接到docker-compose.yml外部的容器,甚至并非Compose管理的容器,特别是对于那些提供共享容器或共同服务。格式跟links类似,示例:


external_links:
 - redis_1
 - project_db_1:mysql
 - project_db_1:postgresql

ports


暴露端口信息。使用宿主端口:容器端口的格式,或者仅仅指定容器的端口(此时宿主机将会随机指定端口),类似于docker run -p ,示例:


ports:
 - "3000"
 - "3000-3005"
 - "8000:8000"
 - "9090-9091:8080-8081"
 - "49100:22"
 - "127.0.0.1:8001:8001"
 - "127.0.0.1:5000-5010:5000-5010"

expose


暴露端口,只将端口暴露给连接的服务,而不暴露给宿主机,示例:


expose:
 - "3000"
 - "8000"

volumes


卷挂载路径设置。可以设置宿主机路径 (HOST:CONTAINER) 或加上访问模式 (HOST:CONTAINER:ro)。示例:


volumes:
  # Just specify a path and let the Engine create a volume
  - /var/lib/mysql
  # Specify an absolute path mapping
  - /opt/data:/var/lib/mysql
  # Path on the host, relative to the Compose file
  - ./cache:/tmp/cache
  # User-relative path
  - ~/configs:/etc/configs/:ro
  # Named volume
  - datavolume:/var/lib/mysql

volumes_from


从另一个服务或者容器挂载卷。可以指定只读或者可读写,如果访问模式没有指定,则默认是可读写。示例:


volumes_from:
 - service_name
 - service_name:ro
 - container:container_name
 - container:container_name:rw

environment


设置环境变量。可以使用数组或者字典两种方式。只有一个key的环境变量可以在运行Compose的机器上找到对应的值,这有助于加密的或者特殊主机的值。示例:


environment:
  RACK_ENV: development
  SHOW: 'true'
  SESSION_SECRET:
environment:
  - RACK_ENV=development
  - SHOW=true
  - SESSION_SECRET

env_file


从文件中获取环境变量,可以为单独的文件路径或列表。如果通过 docker-compose -f FILE 指定了模板文件,则 env_file 中路径会基于模板文件路径。如果有变量名称与 environment 指令冲突,则以envirment 为准。示例:


env_file: .env
env_file:
  - ./common.env
  - ./apps/web.env
  - /opt/secrets.env

extends


继承另一个服务,基于已有的服务进行扩展。


net


设置网络模式。示例:


net: "bridge"
net: "host"
net: "none"
net: "container:[service name or container name/id]"

dns


配置dns服务器。可以是一个值,也可以是一个列表。示例:


dns: 8.8.8.8
dns:
  - 8.8.8.8
  - 9.9.9.9


配置DNS的搜索域,可以是一个值,也可以是一个列表,示例:


dns_search: example.com
dns_search:
  - dc1.example.com
  - dc2.example.com


其他


docker-compose.yml 还有很多其他命令,这里仅挑选常用命令进行讲解,其它不作赘述。如果感兴趣的,可以参考docker-compose.yml文件官方文档:https://docs.docker.com/compose/compose-file/


用Docker Compose编排Spring Cloud电商项目微服务

如果微服务较多,则可以用docker compose来统一编排,接下来我们用docker compose来统一编排电商项目的五个微服务:mall-authcenter,mall-gateway,mall-member,mall-order,mall-product


编排电商项目依赖环境


1、创建一个空目录docker-mall

2、在docker-mall目录下新建一个编排文件docker-compose-env.yml,内容如下:


version: '3.8'
services:
  mysql:
    image: mysql:5.7
    container_name: mysql
    command: mysqld --character-set-server=utf8mb4 --collation-server=utf8mb4_unicode_ci  #覆盖容器启动后默认执行的启动mysql命令
    restart: always  #关机或者重启机器时,docker同时重启容器,一般mysql服务可以这么设置,保持服务一直都在
    environment:
      MYSQL_ROOT_PASSWORD: root #设置root帐号密码
    ports:
      - 3306:3306
    volumes:
      - /mydata/mysql/data/db:/var/lib/mysql #数据文件挂载
      - /mydata/mysql/data/conf:/etc/mysql/conf.d #配置文件挂载
      - /mydata/mysql/log:/var/log/mysql #日志文件挂载
  redis:   
    image: redis:5.0
    container_name: redis
    command: redis-server --appendonly yes  
    volumes:
      - /mydata/redis/data:/data #数据文件挂载
    ports:
      - 6379:6379
  rabbitmq:
    image: rabbitmq:3.7.25-management
    container_name: rabbitmq
    volumes:
      - /mydata/rabbitmq/data:/var/lib/rabbitmq #数据文件挂载
      - /mydata/rabbitmq/log:/var/log/rabbitmq #日志文件挂载
    ports:
      - 5672:5672
      - 15672:15672
  elasticsearch:
    image: elasticsearch:6.4.0
    container_name: elasticsearch
    environment:
      - "cluster.name=elasticsearch" #设置集群名称为elasticsearch
      - "discovery.type=single-node" #以单一节点模式启动
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m" #设置使用jvm内存大小,稍微配置大点,不然有可能启动不成功
    volumes:
      - /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins #插件文件挂载
      - /mydata/elasticsearch/data:/usr/share/elasticsearch/data #数据文件挂载
    ports:
      - 9200:9200
      - 9300:9300
  kibana:
    image: kibana:6.4.0
    container_name: kibana
    links:  #同一个compose文件管理的服务可以直接用服务名访问,如果要给服务取别名则可以用links实现,如下面的es就是elasticsearch服务的别名
      - elasticsearch:es #可以用es这个域名访问elasticsearch服务
    depends_on:
      - elasticsearch #kibana在elasticsearch启动之后再启动
    environment:
      - "elasticsearch.hosts=http://es:9200" #设置访问elasticsearch的地址
    ports:
      - 5601:5601
  logstash:
    image: logstash:6.4.0
    container_name: logstash
    volumes:
      - /mydata/logstash/logstash-springboot.conf:/usr/share/logstash/pipeline/logstash.conf #挂载logstash的配置文件,docker对单个文件的挂载需要先在宿主机建好对应文件才能挂载成功
    depends_on:
      - elasticsearch #kibana在elasticsearch启动之后再启动
    links:
      - elasticsearch:es #可以用es这个域名访问elasticsearch服务
    ports:
      - 4560:4560
  mongo:
    image: mongo:3.2
    container_name: mongo
    volumes:
      - /mydata/mongo/db:/data/db #数据文件挂载
    ports:
      - 27017:27017
  nacos:
    image: nacos/nacos-server:1.4.2
    container_name: nacos
    environment:
      - MODE=standalone
    volumes:
      - /mydata/nacos/logs/:/home/nacos/logs
    ports:
      - "8848:8848"
  zookeeper:
    image: zookeeper:3.5
    ports:
      - 2181:2181 
    volumes:
      - /mydata/zookeeper/data:/data
      - /mydata/zookeeper/conf:/conf
  rocketmq:
    image: rocketmqinc/rocketmq
    container_name: rocketmq
    restart: always    
    ports:
      - 9876:9876
    volumes:
      - /mydata/rocketmq/logs:/home/rocketmq/logs
      - /mydata/rocketmq/store:/home/rocketmq/store
    command: sh mqnamesrv
  broker:
    image: rocketmqinc/rocketmq
    container_name: rmqbroker
    restart: always    
    ports:
      - 10909:10909
      - 10911:10911
      - 10912:10912
    volumes:
      - /mydata/rocketmq/logs:/home/rocketmq/logs
      - /mydata/rocketmq/store:/home/rocketmq/store
      - /mydata/rocketmq/conf/broker.conf:/opt/rocketmq-4.4.0/conf/broker.conf  #这个配置需要先在宿主机对应目录放好broker.conf配置文件,文件内容参考下面文档
    command: sh mqbroker -n namesrv:9876 -c ../conf/broker.conf
    depends_on:
      - rocketmq
    environment:
      - JAVA_HOME=/usr/lib/jvm/jre
  console:
    image: styletang/rocketmq-console-ng
    container_name: rocketmq-console-ng
    restart: always    
    ports:
      - 8076:8080
    depends_on:
      - rocketmq
    environment:
      - JAVA_OPTS= -Dlogging.level.root=info -Drocketmq.namesrv.addr=rocketmq:9876 
      - Dcom.rocketmq.sendMessageWithVIPChannel=false

mydata/rocketmq/conf/broker.conf文件内容如下:


brokerName = broker-a
brokerId = 0
deleteWhen = 04
fileReservedTime = 48
brokerRole = ASYNC_MASTER
flushDiskType = ASYNC_FLUSH
# 宿主机IP
brokerIP1=192.168.65.42

3、启动compose所有容器,在docker-mall目录执行如下命令:


docker-compose -f  docker-composer-env.yml up  -d

常用的一些docker-compose命令


# 查看compose内的容器
docker-compose -f docker-compose-app.yml ps
# 关闭或启动或重启compose内的某个容器
docker-compose -f docker-compose-app.yml stop/start/restart <服务名>
# 关闭或重启compose所有容器
docker-compose -f docker-compose-app.yml stop/restart
# 查看compose所有容器的运行日志
docker-compose -f docker-compose-app.yml logs -f
# 查看compose下某个容器的运行日志
docker-compose -f docker-compose-app.yml logs -f <服务名>
# 也可以把compose的容器日志输出到日志文件里去,然后用tail -f 随时查看
docker-compose -f docker-compose-app.yml logs -f >> myDockerCompose.log &
# 重新构建有变化的镜像并更新到容器再启动
docker-compose -f docker-compose-app.yml up --build -d
# 重新创建docker-compose.yml配置有变化的容器并启动
docker-compose -f docker-compose-app.yml up --force-recreate -d
#停掉容器再删除容器
docker-compose -f docker-compose-app.yml down

编排电商微服务

1、在docker-mall目录下分别创建mall-authcenter,mall-gateway,mall-member,mall-order,mall-product目录。

2、修改电商项目上面这几个微服务配置文件里的中间件配置为上面docker compose里的服务名,并打好jar包放入上面对应的文件夹。

以mall-product服务为例,对应修改后的配置文件如下(注意:大家按照自己下载项目的配置文件去修改,不要直接用我这里的配置,有可能版本不对)

bootstrap.yml文件配置:


spring:
  application:
    name:mall-product
  cloud:
    nacos:
      config:
        server-addr: nacos:8848 #配置中心的地址
        file-extension: yml #配置文件结尾的配置
        shared-dataids: mall-nacos.yml,mall-db-common.yml #图灵商城公共配置
  profiles:
    active: dev
mall-product-dev.yml文件配置:
server:
  port: 8866
  tomcat:
    max-threads: 100
spring:
  application:
    name:mall-product
  redis:
    host: redis
    port: 6379
    password:  #密码
    timeout: 5000ms
    lettuce:
      pool:
        max-active: 50
        max-wait: -1ms
        max-idle: 8
        min-idle: 0
management: #开启SpringBoot Admin的监控
  endpoints:
    web:
      exposure:
        include: '*'
  endpoint:
    health:
      show-details: always
seata:
  config:
    nacos:
      server-addr: nacos:8848
    type: nacos
  registry:
    type: nacos
  tx-service-group: my_test_tx_group
  client:
    support:
      spring:
        datasource-autoproxy: true
#zk配置
zk:
  curator:
    retryCount: 5 #重试次数
    elapsedTimeMs: 5000 #
    connectUrl: zookeeper:2181 #zk地址
    sessionTimeOutMs: 60000 #会话超时时间
    connectionTimeOutMs: 5000 #连接超时时间

mall-nacos.yml文件配置:


spring:
  cloud:
    nacos:
      discovery:
        server-addr: nacos:8848

mall-db-common.yml文件配置:


spring:
  datasource:
    url: jdbc:mysql://db:3306/micromall?serverTimezone=UTC&useSSL=false&useUnicode=true&characterEncoding=UTF-8
    username: root
    password: root
    druid:
      initial-size: 5 #连接池初始化大小
      min-idle: 10 #最小空闲连接数
      max-active: 20 #最大连接数
      web-stat-filter:
        exclusions: "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*" #不统计这些请求数据
      stat-view-servlet: #访问监控网页的登录用户名和密码
        login-username: druid
        login-password: druid
mybatis:
  mapper-locations:
    - classpath:dao/*.xml
    - classpath*:com/**/mapper/*.xml    

3、在每个微服务目录下新建一个Dockerfile,内容如下,以mall-product服务为例,其它微服务都类似修改:


# 基于哪个镜像
From java:8
# 复制文件到容器
ADD tulingmall-product-0.0.1-SNAPSHOT.jar /app.jar
# 配置容器启动后执行的命令
ENTRYPOINT ["java","-jar","/app.jar"]

4、在docker-mall目录下新建微服务编排文件docker-compose-app.yml,内容如下:


version: '3.8'
services:
  mall-authcenter:
    image: mall/mall-authcenter:0.0.1  #指定镜像名称
    build: ./mall-authcenter  #指定Dockfile所在路径
    container_name: mall-authcenter  #指定启动容器名称
    ports:
      - 9999:9999
    volumes:
      - /etc/localtime:/etc/localtime:ro  #同步宿主机与容器时间,ro代表readonly只读
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=512m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    external_links:  #访问不在同一个compose文件管理的服务需要用external_links,前提是这些服务都在同一个网络下才能正常访问 
      - nacos:nacos  #可以用nacos这个域名访问nacos服务
      - mysql:db  #可以用db这个域名访问mysql服务
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-gateway:
    image: mall/mall-gateway:0.0.1
    build: ./mall-gateway
    container_name: mall-gateway
    ports:
      - 8888:8888
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=512m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    depends_on:
      - mall-authcenter #gateway在authcenter启动之后再启动
    external_links:
      - nacos:nacos
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-member:
    image: mall/mall-member:0.0.1
    build: ./mall-member
    container_name: mall-member
    ports:
      - 8877:8877
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=512m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    external_links:
      - nacos:nacos
      - mysql:db #可以用db这个域名访问mysql服务
      - mongo
      - redis
      - rabbitmq
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-product:
    image: mall/mall-product:0.0.1
    build: ./mall-product
    container_name: mall-product
    ports:
      - 8866:8866
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=512m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    external_links:
      - nacos:nacos
      - mysql:db #可以用db这个域名访问mysql服务
      - redis
      - zookeeper
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-order:
    image: mall/mall-order:0.0.1
    build: ./mall-order
    container_name: mall-order
    ports:
      - 8844:8844
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=512m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    external_links:
      - nacos:nacos
      - mysql:db #可以用db这个域名访问mysql服务
      - redis
      - rabbitmq
      - namesrv:rockermq
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加

5、启动compose的所有微服务容器,在docker-mall目录执行如下命令:

#这里启动的微服务跟上面启动的mysql,redis这些中间件服务因为都在docker-mall目录下,即都是同一个工程下,默认都在相同的网络下,可以相互访问


docker-compose -f docker-compose-app.yml up -d  

6、访问下微服务的api看是否都正常,访问接口参数参看视频,不一定访问我列的这几个接口,其它的接口也行

1、通过网关访问登录接口获取token,post方式:


http://192.168.65.61:8888/sso/login?username=test&password=test  

2、通过网关访问添加购物车接口,post方式


http://192.168.65.61:8888/cart/add

3、通过网关访问查询购物车接口,get方式:


http://192.168.65.61:8888/cart/list


4、通过网关访问创建订单接口,post方式:


http://192.168.65.61:8888/order/generateOrder


动态扩容微服务(单物理机内扩容)

有时我们需要扩容微服务,比如我们想把用户和订单微服务各部署两个微服务,则需要将docker-compose.yml里的服务的端口映射和容器名称都注释掉,因为不可能两个订单服务的容器映射到宿主机的同一个端口,修改之后的docker-compose-app.yml内容如下:


version: '3.8'
services:
  mall-authcenter:
    image: mall/mall-authcenter:0.0.1  #指定镜像名称
    build: ./mall-authcenter  #指定Dockfile所在路径
    container_name: mall-authcenter  #指定启动容器名称
    ports:
      - 9999:9999
    volumes:
      - /etc/localtime:/etc/localtime:ro  #同步宿主机与容器时间,ro代表readonly只读
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=256m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    external_links:  #访问不在同一个compose文件管理的服务需要用external_links,前提是这些服务都在同一个网络下才能正常访问 
      - nacos:nacos  #可以用nacos这个域名访问nacos服务
      - mysql:db  #可以用db这个域名访问mysql服务
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-gateway:
    image: mall/mall-gateway:0.0.1
    build: ./mall-gateway
    container_name: mall-gateway
    ports:
      - 8888:8888
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=256m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    depends_on:
      - mall-authcenter #gateway在authcenter启动之后再启动
    external_links:
      - nacos:nacos
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-member:
    image: mall/mall-member:0.0.1
    build: ./mall-member
    container_name: mall-member
    ports:
      - 8877:8877
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=256m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    external_links:
      - nacos:nacos
      - mysql:db #可以用db这个域名访问mysql服务
      - mongo
      - redis
      - rabbitmq
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-product:
    image: mall/mall-product:0.0.1
    build: ./mall-product
#    container_name: mall-product
#    ports:
#      - 8866:8866
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=256m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    deploy:
      replicas:2
    external_links:
      - nacos:nacos
      - mysql:db #可以用db这个域名访问mysql服务
      - redis
      - zookeeper
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加
  mall-order:
    image: mall/mall-order:0.0.1
    build: ./mall-order
#    container_name: mall-order
#    ports:
#      - 8844:8844
    volumes:
      - /etc/localtime:/etc/localtime:ro #同步宿主机与容器时间
    environment:
      - JAVA_TOOL_OPTIONS=-Xmx1g -Xms1g -XX:MaxMetaspaceSize=256m -javaagent:/agent/skywalking-agent.jar -DSW_AGENT_NAME=mall-order -DSW_AGENT_COLLECTOR_BACKEND_SERVICES=192.168.65.204:11800
    external_links:
      - nacos:nacos
      - mysql:db #可以用db这个域名访问mysql服务
      - redis
      - rabbitmq
      - namesrv:rockermq
    cap_add:
      - SYS_PTRACE #这个参数是让docker能支持在容器里能执行jdk自带的类似jinfo,jmap这些命令,如果不需要在容器里执行这些命令可以不加

执行如下扩容命令,服务一旦扩容对应了多个容器,则访问服务名docker会自动帮我们负载均衡去访问服务对应的每台容器:

必须先正常编排微服务,然后才能动态扩容,文件有变动,需要重新创建容器


docker-compose -f docker-compose-app.yml up --force-recreate -d    


docker-compose -f docker-compose-app.yml scale mall-order=2 mall-product=2    


#如果要缩容执行如下操作


docker-compose -f docker-compose-app.yml scale mall-order=1 mall-product=1


注意:docker compose主要用在单物理机内扩容的情况,要做多机扩容还需自己在多个机器上做很多定制化配置,当然,要做多物理机扩容一般都会用docker swarm或kubernetes。

相关文章
|
21天前
|
关系型数据库 MySQL API
|
2月前
|
缓存 监控 持续交付
|
17天前
|
运维 开发者 Docker
Docker Compose:简化容器化应用的部署与管理
Docker Compose:简化容器化应用的部署与管理
|
17天前
|
Docker 微服务 容器
使用Docker Compose实现微服务架构的快速部署
使用Docker Compose实现微服务架构的快速部署
36 1
|
28天前
|
负载均衡 监控 开发者
深入浅出:掌握 Docker Compose 的高级用法
【10月更文挑战第22天】本文深入探讨了 Docker Compose 的高级用法,包括环境变量、服务扩展、网络配置和数据卷管理。通过实例详细介绍了如何利用这些功能提升开发效率和应用部署的灵活性。适合希望深入了解 Docker Compose 的开发者阅读。
|
2月前
|
资源调度 关系型数据库 MySQL
docker制作compose
本文介绍了Docker Compose的基本使用,包括安装、创建`docker-compose.yml`文件定义服务,以及如何使用环境变量和卷来配置多容器应用的步骤。
75 1
docker制作compose
|
17天前
|
NoSQL Redis Docker
【赵渝强老师】使用Docker Compose管理容器
Docker Compose 通过 YAML 文件管理多个容器,简化复杂系统的部署和管理。本文介绍了 Docker Compose 的基本概念,并通过一个包含 Redis DB 和 Python Web 模块的示例,展示了如何使用 Docker Compose 部署和管理多容器应用。手动部署和 Docker Compose 部署的对比突显了 Docker Compose 在系统复杂度增加时的优势。
|
17天前
|
前端开发 开发者 Docker
深入探索Docker Compose:简化多容器应用的部署
深入探索Docker Compose:简化多容器应用的部署
46 0
|
2月前
|
Ubuntu Linux 网络安全
Docker&Docker Compose安装(离线+在线)
Docker&Docker Compose安装(离线+在线)
251 1
|
2月前
|
存储 Kubernetes 持续交付
Docker Compose
【10月更文挑战第3天】
53 6
下一篇
无影云桌面