通过 dhcp-agent 访问 Metadata - 每天5分钟玩转 OpenStack(168)

简介: OpenStack 默认通过 l3-agent 创建和管理 neutron-ns-metadata-proxy,进而与 nova-metadata-api 通信。但不是所有环境都有 l3-agent,比如直接用物理 router 的场景。

OpenStack 默认通过 l3-agent 创建和管理 neutron-ns-metadata-proxy,进而与 nova-metadata-api 通信。但不是所有环境都有 l3-agent,比如直接用物理 router 的场景。这时就需要走另一条路:让 dhcp-agent 来创建和管理 neutron-ns-metadata-proxy。


打开 /etc/neutron/dhcp_agent.ini,设置 force_metadata

重启 dhcp-agent 后,可以看到控制节点上多了一个 neutron-ns-metadata-proxy 进程。

此进程通过 --network_id 关联到 test_net,这就是 dhcp-agent 启动的 neutron-ns-metadata-proxy,用于接收 test_net 网络上 instance 的 metadata 请求。每一个 network 都有一个与之对应的 neutron-ns-metadata-proxy。

重启 instance c1,查看路由表。

请注意,现在访问 169.254.169.254 的路由已由之前的 17.17.17.1变为 17.17.17.2。这里的 17.17.17.2 是 dhcp-agent 在test_net 上的 IP。这条路由是由 dhcp-agent 添加进去的。正是因为这条路由的存在,即便 l3-agent 与 dhcp-agent 同时提供 neutron-ns-metadata-proxy 服务,metadata 请求也只会发送给 dhcp-agent。

同时我们也看到,dhcp-agent 已经将 IP 169.254.169.254 配置到了自己身上。也就是说:c1 访问 metadata 的请求 http://169.254.169.254 实际上是发送到了 dhcp-agent 的 80 端口。而监听 80 端口的正是 dhcp-agent 启动的 neutron-ns-metadata-proxy 进程。

后面的数据流向就与 l3-agent 的场景一样了:neutron-ns-metadata-proxy 将请求通过 unix domain socket 发给 neutron-metadata-agent,后者再通过管理网络发给 nova-api-metadata。

到这里,我们已经分别讨论了通过 l3-agent 和 dhcp-agent 访问 metadata 的实现方法。对于 169.254.169.254

  1. l3-agent 用 iptables 规则来转发。

  2. dhcp-agent 则是将此 IP 配置到自己的 interface 上。

不知道大家有没有这样一个疑问:

nova-api-metadata 是怎么知道应该返回哪个 instance 的 metadata?c1 只是向 169.254.169.254 发送了一个 http 请求,nova-api-metadata 怎么就知道应该返回 c1 的 metadata 呢?

下节咱们详细分析这个问题。


目录
相关文章
|
Kubernetes 容器 Perl
使用kube-proxy让外部网络访问K8S service的ClusterIP
配置方式 kubernetes版本大于或者等于1.2时,外部网络(即非K8S集群内的网络)访问cluster IP的办法是: 修改master的/etc/kubernetes/proxy,把KUBE_PROXY_ARGS=”“改为KUBE_PROXY_ARGS=”–proxy-mode=userspace” 重启kube-proxy服务 在核心路由设备或者源主机上添加一条路由,访问cluster IP段的路由指向到master上。
4552 0
|
Kubernetes 网络协议 网络安全
Kubernetes node的防火墙问题导致pod ip无法访问
环境: 1.在hadoop36机器,ping hadoop38机器的pod的ip,为172.30.1.4 2.该pod的service的external-ip的ip为hadoop36的ip3.
4999 0
|
8月前
|
XML 存储 网络协议
/etc/netplan/network-manager-all.yaml 配置服务器ip
/etc/netplan/network-manager-all.yaml 配置服务器ip
247 0
|
域名解析
OpenStack使用neutron agent-list缺少组件
OpenStack使用neutron agent-list缺少组件
270 0
OpenStack使用neutron agent-list缺少组件
|
存储 Kubernetes 负载均衡
Kubernetes.Service—使用源 IP
Kubernetes.Service—使用源 IP
215 0
openstack报错——MainPID=0 Id=neutron-server.service ActiveState=failed
openstack报错——MainPID=0 Id=neutron-server.service ActiveState=failed
391 0
openstack报错——MainPID=0 Id=neutron-server.service ActiveState=failed
|
Kubernetes Linux Docker
Kubernetes - Service 端口映射暴露配置
Kubernetes - Service 端口映射暴露配置
489 0
Kubernetes - Service 端口映射暴露配置
|
网络协议 应用服务中间件 nginx
容器服务kubernetes federation v2实践四:基于External-DNS的多集群Service DNS实践
External-DNS提供了编程方式管理Kubernetes Service资源的DNS的功能,External-DNS会监听LoadBalancer类型的Service,然后与云厂商打通,按照可用区、region和全局三个维度生成独自的域名解析记录,便于服务间调用引导流量。
11333 1
openStack nova nova valid hosts 优化
scheduler_default_filters=AllHostsFilterallow_resize_to_same_host=Trueallow_migrate_to_same_host=Truecpu_allocation_ration=158.
1278 0