〖Docker指南⑥〗快速入门Docker的五种网络模式

简介: Docker 使用Linux bridge 技术,当Docker server启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。
+关注继续查看

一、Docker 网络实现的原理



Docker 使用Linux bridge 技术,当Docker server启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。


接下来就要为容器分配IP了,Docker会从RFC1918所定义的私有IP网段中,选择一个和宿主机不同的IP地址(Container-IP)和子网(每个容器的默认网关)分配给docker0,连接到docker0的容器就从这个子网中选择一个未占用的IP使用。


如一般Docker会使用172.17.0.0/16这个网段,并将172.17.0.1/16分配给docker0网桥(在主机上使用ifconfig命令是可以看到docker0的,可以认为它是网桥的管理接口,在宿主机上作为一块虚拟网卡使用)。


因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。Docker网桥是宿主机虚拟出来的,并不是真实存在的网络设备,外部网络时无法寻址到的,这也意味着外部网络无法直接通过Container-IP访问到容器。


如果容器希望外部访问能够访问到,可以通过映射容器端口到宿主机(端口映射),即docker run 创建容器的时候通过-p或-P参数来启用,访问容器的时候就通过[宿主机IP]:[容器端口]访问容器。


随机映射端口(从32768开始)docker run -d --name test1 -P alpine

指定映射端口 docker run -d --name test2 -p 88:80 alpine


看下面的截图,我们发现这个容器带来的网卡都是一对一对的,这就是evth-pair(virtual Ethernet pair)技术,就是一对的虚拟设备接口,它们都是成对出现的,一段连接着协议,一段彼此相连。正因为有这个特性,evth-pair充当一个桥梁,来连接各种虚拟网络设备。

1.png



二、Docker的网络模式



项目

Value

Host

容器不会虚拟出自己的网卡,配置主机的IP等,而是使用宿主机的IP和端口
Container创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP,端口范围
None该模式关闭了容器的网络功能
Bridge默认为该模式,此模式会为每一个容器分配,设置IP等,并将容器连接到一个docker0 的虚拟网桥,通过docker0 网桥以及iptables nat 表配置与宿主机通信
自定义网络


  1. 默认网络

当你安装Docker时,它会自动创建三个网络bridge (创建容器默认连接到此网络)、none、host。你可以使用以下docker network ls 或者docker network list 命令列出这些网络


使用docker run 创建docker 容器时,可以用--net --network 选项指定容器的网络模式

 host模式:使用--net=host指定

 none模式:使用--net=none 指定

 container模式:使用--net=container:${NAME/ID} 指定

 bridge模式:使用--net=bridge 指定,默认设置,可省略


2.1 Host 模式


host模式:使用--net=host 指定


相当于VMware 中的桥接模式,与宿主机在同一个网络中,但是没有独立IP地址,直接使用宿主机的IP地址与外界进行通信,不再需要额外进行转换。


docker启动时指定-network=host或-net=host,此时通过-p映射端口不会气到任何作用,端口号会以主机端口号为主,重复时则递增。


Docker 使用了Linux 的Namespace 技术来进行资源隔离,如 PID Namespace 隔离进程,Mount Namespace 隔离文件系统,Network Namespace 隔离网络等。一个Network Namespace 提供了一份独立的网络环境,包括网卡,路由,iptable 规则等都与其他Network Namespace 隔离。一个Docker 容器一般会分配一个独立的Network Namespace。


但是如果启动容器的时候使用host 模式,那么这个容器将不会获得一个独立的Network Namespace ,而是和宿主机共用一个Network Namespace 。容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口范围。此时容器不再拥有隔离的、独立的网络栈,不拥有端口资源。


容器的网络使用的是宿主机的网络,但是,容器的其他方面,如文件系统、进程列表等还是和宿主机隔离的。


2.2 none 模式


使用none模式,Docker 容器拥有自己的Network Namespace ,但是,并不为Docker 容器进行任何网络配置。


也就是说,这个Docker 容器没有网卡、IP、路由等信息。这种网络模式下容器只有lo回环网络,没有其他网卡。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性。

2.png


2.3 container 模式


这个模式指定新创建的容器和已经存在的一个容器共享一个Network Namespace (网络命名空间),而不是和宿主机共享。


新创建的容器不会创建自己的网卡,配置自己的IP,而是和一个指定的容器共享IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过lo 网卡设备通信。

3.png


2.4 bridge 模式


bridge 模式是docker 的默认网络模式,不用--net 参数,就是bridge模式。


相当于VMware 中的nat 模式,容器使用独立network Namespace ,并连接到docker0 虚拟网卡。通过docker0 网桥以及iptables nat 表配置与宿主机通信,此模式会为每一个容器分配Network Namespace、设置IP等,并将一个主机上的Docker 容器连接到一个虚拟网桥上。


当Docker进程启动时,会在主机上创建一个名为docker0 的虚拟网桥,此主机上启动的Docker 容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。


从docker0 子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair 设备。veth 设备总是成对出现的,它们组成了一个数据的通道,数据从一个设备进入,就会从另一个设备出来。因此,veth 设备常用来连接两个网络设备。

4.png


Docker 将veth pair 设备的一端放在新创建的容器中,并命名为eth0 (容器的网卡),另一端放在主机中,以veth*这样类似的名字命名,并将这个网络设备加入到docker0 网桥中。可以通过brctl show 命令查看。


yum install bridge-utils -y

5.png


使用docker run -p 时,docker 实际是在iptables 做了DNAT 规则,实现端口转发功能。可以使用iptables -t nat -nL 查看。

6.png



2.5 自定义网络模式


新建自定义网络:docker network create ${network-name}

7.png


以我们新建的网络启动两个alpine容器,进入任意一个容器,ping另外一个容器的名字,yeah,ping通了~

8.png

相关文章
|
10天前
|
Kubernetes 负载均衡 安全
ACMG 2.0支持零信任网络模式
ACMG 2.0支持零信任网络模式
|
2月前
|
安全 Linux 虚拟化
【Docker】Docker中network的概要、常用命令、网络模式以及底层ip和容器映射变化的详细讲解
【Docker】Docker中network的概要、常用命令、网络模式以及底层ip和容器映射变化的详细讲解
47 0
|
2月前
|
应用服务中间件 网络安全 nginx
docker--网络和特权模式
docker--网络和特权模式
|
3月前
|
网络安全 虚拟化 网络架构
VMware的几种网络模式
VMware的几种网络模式
53 0
|
5月前
|
弹性计算 Cloud Native Linux
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——1. Flannel 模式架构设计(上)
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——1. Flannel 模式架构设计(上)
|
5月前
|
弹性计算 Kubernetes Cloud Native
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——1. Flannel 模式架构设计(中)
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——1. Flannel 模式架构设计(中)
|
5月前
|
弹性计算 Kubernetes Cloud Native
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——1. Flannel 模式架构设计(下)
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——1. Flannel 模式架构设计(下)
|
5月前
|
弹性计算 Cloud Native Linux
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——2. Terway ENI 模式架构设计(上)
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——2. Terway ENI 模式架构设计(上)
|
5月前
|
弹性计算 编解码 Cloud Native
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——2. Terway ENI 模式架构设计(中)
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——2. Terway ENI 模式架构设计(中)
|
5月前
|
弹性计算 编解码 Cloud Native
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——2. Terway ENI 模式架构设计(下)
《云原生网络数据面可观测性最佳实践》——二、全景剖析阿里云容器网络数据链路——2. Terway ENI 模式架构设计(下)
推荐文章
更多