金鱼哥RHCA回忆录:CL210红帽OpenStack平台架构--介绍undercloud

简介: 第一章 红帽OpenStack平台架构--介绍undercloud
🎹 个人简介:大家好,我是 金鱼哥,CSDN运维领域新星创作者,华为云·云享专家,阿里云社区·专家博主
📚个人资质: CCNA、HCNP、CSNA(网络分析师),软考初级、中级网络工程师、RHCSA、RHCE、RHCA、RHCI、ITIL😜
💬格言:努力不一定成功,但要想成功就必须努力🔥

🎈支持我:可点赞👍、可收藏⭐️、可留言📝


Red Hat OpenStack Platform (RHOSP) Director是一个独立的OpenStack一体化安装(all-in-one),提供了一个用于安装和管理一个完整的OpenStack基础设施环境的工具集。它主要基于TripleO项目中开发的OpenStack部署组件, 该组件是“OpenStack上的OpenStack”的缩写。undercloud使用OpenStack专用的一体化安装(undercloud)上运行的核心组件将被安装一个可操作的OpenStack云(overcloud)。它使用这些核心组件和新组件来定位、提供、部署裸机系统,并使其具有OpenStack 控制、计算、网络和存储节点

Red Hat OpenStack Platform Director是用于OpenStack基础设施的部署云,其中云的工作负载是overcloud 系统本身:控制器节点、计算节点和存储节点。由于基础设施节点通常直接构建在物理硬件系统上,因此底层云可以称为裸金属云。但是,正如您将在本课程中体验到的,undercloud可以将基础设施部署到虚拟系统中,以用于学习、测试和特定用例。类似地,overcloud几乎只部署虚拟机和容器,但可以用于直接将租户工作负载部署到专用平台。物理系统,如刀片服务器或企业机架系统,通过合并裸机驱动程序和方法实现。因此,裸金属云和租户工作负载云只是一个方便的参考框架。


📜undercloud包含了7个主要模块

📑Identity Service (keystone)

📑Image Service (glance)

📑Compute Service (nova)

📑Bare Metal Service (ironic)

📑Orchestration Service (heat)

📑Object store (swift)

📑OpenStack Networking Service (neutron)


undercloud由Red Hat OpenStack平台director本身组成。再加上配置网络和资源,这些资源用于配置和管理形成overcloud的OpenStack节点。当RHOSP Director为overcloud执行构建过程时,被配置为控制器、计算、网络和存储系统的节点被视为底层云的工作负载。当部署和配置完成时,这些节点重新启动以成为overcloud


📜查看undercloud的标识服务

当undercloud安装完成时,它在用户的主目录中使用管理凭据创建stackrc身份环境文件。undercloud所需的所有用户帐户的密码都存储在undercloud-passwords.conf文件中。您必须使用OpenStack CLI客户端源stackrc文件来与底层云服务交互。使用 source stackrc 加载相关变量进行使用。在下面的输出中,stackrc文件源在undercloud上执行openstack service list命令。

(undercloud) [stack@director ~]$ openstack service list
+----------------------------------+------------------+-------------------------+
| ID                               | Name             | Type                    |
+----------------------------------+------------------+-------------------------+
| 0175f01b32e34e048e65480466ca0df1 | placement        | placement               |
| 19e6c0e055fb4f77b5edc9db4c34941b | heat-cfn         | cloudformation          |
| 261998639f5b464fafaadcc0ff4d85d7 | zaqar-websocket  | messaging-websocket     |
| 32f1900fc5104ec0a032eb2f0bbe63b6 | ironic           | baremetal               |
| 70564b321fa349678465e01cc57e69f7 | keystone         | identity                |
| 7193f91efeb44525ae2780420f752c0f | glance           | image                   |
| 8c4172704dba426a83a3c3633553df65 | ironic-inspector | baremetal-introspection |
| 941164cdcd574ef294fc39b776141855 | heat             | orchestration           |
| 9df43eebd74740c9a5d6ad026b53146b | neutron          | network                 |
| d1f5fa857c7e40db88e48b713d28debd | swift            | object-store            |
| e8e21db59b7c47879cfa9c51c780777f | mistral          | workflowv2              |
| eade3c9269134a528a15f598ca70421b | nova             | compute                 |
| f0a5a41b6bbe4c229f13964e47f754d6 | zaqar            | messaging               |
+----------------------------------+------------------+-------------------------+

在教室环境中,stackrc文件中的OS _AUTH_URL环境变量被设置为undercloud上运行的标识服务的公共端点。教室环境对undercloud上的OpenStack服务所有公共端点使用SSL。

(undercloud) [stack@director ~]$ openstack endpoint list -c 'Service Type' -c Interface -c URL
+-------------------------+-----------+----------------------------------------------------+
| Service Type            | Interface | URL                                                |
+-------------------------+-----------+----------------------------------------------------+
| cloudformation          | internal  | http://172.25.249.202:8000/v1/%(tenant_id)s        |
| orchestration           | admin     | http://172.25.249.202:8004/v1/%(tenant_id)s        |
| image                   | internal  | http://172.25.249.202:9292                         |
| baremetal               | public    | https://172.25.249.201:13385                       |
| cloudformation          | public    | https://172.25.249.201:13800/v1/%(tenant_id)s      |
| identity                | public    | https://172.25.249.201:13000                       |
| messaging               | internal  | http://172.25.249.202:8888                         |
| baremetal               | internal  | http://172.25.249.202:6385                         |
| workflowv2              | internal  | http://172.25.249.202:8989/v2                      |
| orchestration           | internal  | http://172.25.249.202:8004/v1/%(tenant_id)s        |
| identity                | admin     | http://172.25.249.202:35357                        |
| cloudformation          | admin     | http://172.25.249.202:8000/v1/%(tenant_id)s        |
| network                 | public    | https://172.25.249.201:13696                       |
| messaging-websocket     | public    | wss://172.25.249.201:9000                          |
| messaging               | public    | https://172.25.249.201:13888                       |
| placement               | public    | https://172.25.249.201:13778/placement             |
| image                   | admin     | http://172.25.249.202:9292                         |
| workflowv2              | admin     | http://172.25.249.202:8989/v2                      |
| workflowv2              | public    | https://172.25.249.201:13989/v2                    |
| messaging-websocket     | admin     | ws://172.25.249.202:9000                           |
| compute                 | internal  | http://172.25.249.202:8774/v2.1                    |
| baremetal-introspection | public    | https://172.25.249.201:13050                       |
| baremetal-introspection | admin     | http://172.25.249.202:5050                         |
| messaging               | admin     | http://172.25.249.202:8888                         |
| compute                 | public    | https://172.25.249.201:13774/v2.1                  |
| baremetal               | admin     | http://172.25.249.202:6385                         |
| placement               | internal  | http://172.25.249.202:8778/placement               |
| baremetal-introspection | internal  | http://172.25.249.202:5050                         |
| placement               | admin     | http://172.25.249.202:8778/placement               |
| object-store            | internal  | http://172.25.249.202:8080/v1/AUTH_%(tenant_id)s   |
| compute                 | admin     | http://172.25.249.202:8774/v2.1                    |
| object-store            | public    | https://172.25.249.201:13808/v1/AUTH_%(tenant_id)s |
| network                 | internal  | http://172.25.249.202:9696                         |
| orchestration           | public    | https://172.25.249.201:13004/v1/%(tenant_id)s      |
| messaging-websocket     | internal  | ws://172.25.249.202:9000                           |
| identity                | internal  | http://172.25.249.202:5000                         |
| network                 | admin     | http://172.25.249.202:9696                         |
| image                   | public    | https://172.25.249.201:13292                       |
| object-store            | admin     | http://172.25.249.202:8080                         |
+-------------------------+-----------+----------------------------------------------------+

📜识别undercloud的网络服务

为了提供云上(overcloud)节点,底层云(undercloud)与一个提供网络相匹配,该网络提供DHCP和PXE引导功能来设置裸金属节点。供应网络是一种大容量的、专用的、隔离的网络,与普通的公网分开。在overcloud部署之后,Red Hat OpenStack Platform Director将继续通过这个隔离的、安全的供应网络管理和更新overcloud,与外部和内部的OpenStack流量完全隔离。


📑查看供应网络

查看为构建undercloud而创建的undercloud.conf文件,以验证配置网络。在下面的输出中,DHCP地址从dhcp_start到dhcp_end的范围是管理供应子网的OpenStack networking dnsmasq服务的作用域。部署到供应网络的节点从这个范围为它们的供应NIC分配一个IP地址。inspection_iprange是裸机dnsmasq服务的作用域,用于在自省过程开始时,在PXE引导期间临时分配地址给被请求的节点。

(undercloud) [stack@director ~]$ cat undercloud.conf | egrep -v '(^#.*|^$)'
[DEFAULT]
local_ip = 172.25.249.200/24
undercloud_public_vip = 172.25.249.201
undercloud_admin_vip = 172.25.249.202
undercloud_ntp_servers = 172.25.254.254
dhcp_start = 172.25.249.51
dhcp_end = 172.25.249.59
inspection_iprange = 172.25.249.150,172.25.249.180
masquerade_network = 172.25.249.0/24
undercloud_service_certificate = /etc/pki/tls/certs/undercloud.pem
generate_service_certificate = false
local_interface = eth0
network_cidr = 172.25.249.0/24
network_gateway = 172.25.249.200
hieradata_override = /home/stack/hieradata.txt
undercloud_debug = false
enable_telemetry = false
enable_ui = true
[auth]
undercloud_admin_password = redhat
[ctlplane-subnet]

📑查看undercloud的网络接口

br-ctlplane网桥是172.25.249.0配置网络。eth1接口是172.25.250.0公共公网。

(undercloud) [stack@director ~]$ ip addr | grep eth1
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
inet 172.25.250.200/24 brd 172.25.250.255 scope global noprefixroute eth1
(undercloud) [stack@director ~]$ ip addr | grep br-ctlplane
6: br-ctlplane: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN group default qlen 1000
    inet 172.25.249.200/24 brd 172.25.249.255 scope global br-ctlplane
    inet 172.25.249.202/32 scope global br-ctlplane
    inet 172.25.249.201/32 scope global br-ctlplane

配置子网是为DHCP准备的。网络服务确认一个dnsmasq实例来管理子网范围。当部署在这个子网上的实例查询dnsmasq以获得一个IP地址和一个默认的网关时,配置DNS nameserver值作为一个DHCP选项。

(undercloud) [stack@director ~]$ openstack subnet show ctlplane-subnet
+-------------------+------------------------------------------------------------+
| Field             | Value                                                      |
+-------------------+------------------------------------------------------------+
| allocation_pools  | 172.25.249.51-172.25.249.59                                |
| cidr              | 172.25.249.0/24                                            |
| created_at        | 2018-10-23T13:02:21Z                                       |
| description       |                                                            |
| dns_nameservers   | 172.25.250.254                                             |
| enable_dhcp       | True                                                       |
| gateway_ip        | 172.25.249.200                                             |
| host_routes       | destination='169.254.169.254/32', gateway='172.25.249.200' |
| id                | 45dce459-6e9d-40dc-a4d5-ef2e91de6ec7                       |
| ip_version        | 4                                                          |
| ipv6_address_mode | None                                                       |
| ipv6_ra_mode      | None                                                       |
| name              | ctlplane-subnet                                            |
| network_id        | 2c9cee9a-e797-462e-ba76-efaa564b7b7f                       |
| project_id        | f50fbd0341134b97a5a735cca5d6255c                           |
| revision_number   | 1                                                          |
| segment_id        | None                                                       |
| service_types     |                                                            |
| subnetpool_id     | None                                                       |
| tags              |                                                            |
| updated_at        | 2018-10-23T13:45:37Z                                       |
+-------------------+------------------------------------------------------------+

📜访问undercloud的镜像服务

当首次供应裸金属节点时,裸金属服务使用IPMI命令在节点上运行。默认情况下,节点被配置为PXE引导。在PXE引导期间,每个裸金属节点请求一个DHCP地址、一个内核和一个ramdisk镜像来执行一次初始网络引导。这些内核和ramdisk引导镜像是从undercloud镜像服务请求的。下面的输出列出了用于硬件缺省的pxe引导裸金属节点所需的镜像:

(undercloud) [stack@director ~]$ openstack image list
+--------------------------------------+------------------------+--------+
| ID                                   | Name                   | Status |
+--------------------------------------+------------------------+--------+
| fab32297-d1e2-4598-9e4e-6b02c8982c6f | bm-deploy-kernel       | active |
| bc8408a7-3074-4c56-8992-a56637f561e0 | bm-deploy-ramdisk      | active |
| ff82c9a3-eead-489f-a862-ca7b2b245a60 | overcloud-full         | active |
| 86901767-c252-4711-867e-a06eb52b4bfc | overcloud-full-initrd  | active |
| 4b823922-4757-468f-aad4-1e7bf0f585fa | overcloud-full-vmlinuz | active |
+--------------------------------------+------------------------+--------+

在overcloud部署期间使用的裸金属节点设置使用overcloud-full-initrd和overcloud-full-vmlinuz镜像来执行网络引导。然后将overcloud-full镜像复制到overcloud节点的引导磁盘。overcloud-full镜像是一个正在运行的红帽企业Linux系统,已经安装了红帽OpenStack平台和红帽Ceph存储包,但还没有配置。


📜识别undercloud的裸金属服务

裸金属服务请求用于部署overcloud的节点。工作流服务(mistral)管理这个注册任务集,允许多个任务和操作同时发生。在准备构建新的overcloud时。使用bm-deploy-ramdisk和bm-deploy-kernel镜像执行硬件缺省。这两个镜像协同工作,引导预期的裸金属节点,收集节点功能并向undercloud的bare metal服务报告,该服务更新其数据库并使用对象存储服务存储节点信息。

(undercloud) [stack@director ~]$ openstack baremetal node list -c Name -c 'Power State' -c 'Provisioning State'
+-------------+-------------+--------------------+
| Name        | Power State | Provisioning State |
+-------------+-------------+--------------------+
| controller0 | power on    | active             |
| compute0    | power on    | active             |
| computehci0 | power on    | active             |
| compute1    | power on    | active             |
| ceph0       | power on    | active             |
+-------------+-------------+--------------------+

📜查看undercloud的编排服务

Red Hat OpenStack Platform Director在/usr/share/openstack-tripleo-heat-templates/目录中提供了一套完整的工作overcloud模板,包括许多可选配置环境文件。编排服务通过与资源构建指令和Puppet脚本通信来管理部署流程,Puppet脚本根据分配的部署角色配置云上节点。

(undercloud) [stack@director ~]$ openstack stack list 
+--------------------------------------+------------+----------------------------------+-----------------+----------------------+--------------+
| ID                                   | Stack Name | Project                          | Stack Status    | Creation Time        | Updated Time |
+--------------------------------------+------------+----------------------------------+-----------------+----------------------+--------------+
| 4e1047aa-4b3f-4c14-9a90-7eab007adaea | overcloud  | f50fbd0341134b97a5a735cca5d6255c | CREATE_COMPLETE | 2018-10-23T13:54:59Z | None         |
+--------------------------------------+------------+----------------------------------+-----------------+----------------------+--------------+
(undercloud) [stack@director ~]$ openstack stack list -c 'Stack Name' -c 'Stack Status'
+------------+-----------------+
| Stack Name | Stack Status    |
+------------+-----------------+
| overcloud  | CREATE_COMPLETE |
+------------+-----------------+

📜查看undercloud的计算服务

为了部署堆栈,编排服务对运行在undercloud上的计算服务进行连续调用。计算服务依赖于裸金属服务,如前所述,裸金属服务创建缺省硬件的目录。对于每个部署具有特定角色的新overcloud节点的请求,compute scheduler会筛选可用节点的列表,确保所选节点满足硬件需求。下面的输出显示了运行在undercloud上的计算服务列表:

(undercloud) [stack@director ~]$ openstack compute service list
+----+----------------+--------------------------+----------+---------+-------+----------------------------+
| ID | Binary         | Host                     | Zone     | Status  | State | Updated At                 |
+----+----------------+--------------------------+----------+---------+-------+----------------------------+
|  1 | nova-conductor | director.lab.example.com | internal | enabled | up    | 2020-10-13T14:30:55.000000 |
|  2 | nova-scheduler | director.lab.example.com | internal | enabled | up    | 2020-10-13T14:31:00.000000 |
|  5 | nova-compute   | director.lab.example.com | nova  | enabled | up    | 2020-10-13T14:30:54.000000 |
+----+----------------+--------------------------+----------+---------+-------+----------------------------+

📜undercloud的电源管理

要部署的节点通常是裸机物理系统,如机架系统上的刀片服务器,具有用于远程关闭电源访问和管理的物理网络管理接口。访问每个节点以验证系统是否具有多个nic,以及为分配的部署角色配置了正确的CPU、RAM和硬盘空间。在本课程中,节点是具有小规模配置的虚拟机。

云环境中的电源管理通常使用内置于服务器机箱中的IPMI管理NIC。但是,虚拟机通常没有lights-out -management平台接口。相反,它们由适当的虚拟化管理软件控制,该软件连接到正在运行的虚拟机的管理程序,以请求电源管理操作和事件。在这个教室中,一个基板管理控制器(BMC)模拟器在power虚拟机上运行,每个虚拟机节点只有一个唯一的IP地址。在正确的侦听器上接收到有效的IPMI请求后,BMC仿真器将请求发送到hypervisor, hypervisor在相应的虚拟机上执行请求。instackenv-initial.json文件定义了要注册的每个裸机节点的MAC地址、IPMI地址、电源管理用户名和密码。该节点注册文件可以是JSON或YAML格式。下面的示例显示了instackenv-initial.json格式的配置文件。

(undercloud) [stack@director ~]$ cat instackenv-initial.json 
{
  "nodes": [
    {
      "name": "controller0",
      "arch": "x86_64",
      "cpu": "2",
      "disk": "40",
      "memory": "8192",
      "mac": [ "52:54:00:00:f9:01" ],
      "pm_addr": "172.25.249.101",
      "pm_type": "pxe_ipmitool",
      "pm_user": "admin",
      "pm_password": "password",
      "pm_port": "623",
      "capabilities": "node:controller0,boot_option:local"
    },
    {
      "name": "compute0",
…………

📑执行IPMI电源管理

power虚拟机就像每个裸金属节点的IPMI硬件层。发送到侦听器的结构正确的IPMI命令由IPMI仿真器转换为针对底层hypervisor系统的请求,后者在被请求的节点上执行操作。
在这里插入图片描述

课堂不需要完整的IPMI功能集,只需要按需编程地启动循环或启动节点的能力。用于测试power IPMI仿真功能的命令行实用程序使用以下语法:

(undercloud) [stack@director ~]$ ipmitool -I lanplus -U admin -P password -H power status|on|off

i接口选项被编译到命令中,可以通过ipmitool -h。lanplus选项表示使用IPMI v2.0 RMCP+ LAN接口。

例如,运行以下命令查看controller0节点的电源状态。

(undercloud) [stack@director ~]$ ipmitool -I lanplus -U admin -P password -H 172.25.249.101 power status
Chassis Power is on

OpenStack CLl使用OpenStack baremetal命令与裸金属服务交互,该命令用于对裸金属服务请求的裸金属节点进行操作。使用openstack baremetal node power on命令在注册的裸金属节点上启动。

(undercloud) [stack@director ~]$ openstack baremetal node power on compute0

相对地,关闭命令如下:

(undercloud) [stack@director ~]$ openstack baremetal node power off compute0

📜课本练习

[student@workstation ~]$ lab architecture-undercloud setup 
Setting up workstation for lab exercise work:

 . Verifying node reachable: director..........................  SUCCESS

📑查看配置文件信息

(undercloud) [stack@director ~]$ grep '^dhcp' undercloud.conf 
dhcp_start = 172.25.249.51
dhcp_end = 172.25.249.59
(undercloud) [stack@director ~]$ grep '^undercloud_.*vip' undercloud.conf 
undercloud_public_vip = 172.25.249.201
undercloud_admin_vip = 172.25.249.202
(undercloud) [stack@director ~]$ grep '^undercloud_.*password' undercloud.conf 
undercloud_admin_password = redhat

📑查看端点列表

(undercloud) [stack@director ~]$ openstack endpoint list -c 'Service Type' -c Interface -c URL
+-------------------------+-----------+----------------------------------------------------+
| Service Type            | Interface | URL                                                |
+-------------------------+-----------+----------------------------------------------------+
| cloudformation          | internal  | http://172.25.249.202:8000/v1/%(tenant_id)s        |
| orchestration           | admin     | http://172.25.249.202:8004/v1/%(tenant_id)s        |
| image                   | internal  | http://172.25.249.202:9292                         |
| baremetal               | public    | https://172.25.249.201:13385                       |
| cloudformation          | public    | https://172.25.249.201:13800/v1/%(tenant_id)s      |
| identity                | public    | https://172.25.249.201:13000                       |
| messaging               | internal  | http://172.25.249.202:8888                         |
| baremetal               | internal  | http://172.25.249.202:6385                         |
| workflowv2              | internal  | http://172.25.249.202:8989/v2                      |
| orchestration           | internal  | http://172.25.249.202:8004/v1/%(tenant_id)s        |
| identity                | admin     | http://172.25.249.202:35357                        |
| cloudformation          | admin     | http://172.25.249.202:8000/v1/%(tenant_id)s        |
| network                 | public    | https://172.25.249.201:13696                       |
| messaging-websocket     | public    | wss://172.25.249.201:9000                          |
| messaging               | public    | https://172.25.249.201:13888                       |
| placement               | public    | https://172.25.249.201:13778/placement             |
| image                   | admin     | http://172.25.249.202:9292                         |
| workflowv2              | admin     | http://172.25.249.202:8989/v2                      |
| workflowv2              | public    | https://172.25.249.201:13989/v2                    |
| messaging-websocket     | admin     | ws://172.25.249.202:9000                           |
| compute                 | internal  | http://172.25.249.202:8774/v2.1                    |
| baremetal-introspection | public    | https://172.25.249.201:13050                       |
| baremetal-introspection | admin     | http://172.25.249.202:5050                         |
| messaging               | admin     | http://172.25.249.202:8888                         |
| compute                 | public    | https://172.25.249.201:13774/v2.1                  |
| baremetal               | admin     | http://172.25.249.202:6385                         |
| placement               | internal  | http://172.25.249.202:8778/placement               |
| baremetal-introspection | internal  | http://172.25.249.202:5050                         |
| placement               | admin     | http://172.25.249.202:8778/placement               |
| object-store            | internal  | http://172.25.249.202:8080/v1/AUTH_%(tenant_id)s   |
| compute                 | admin     | http://172.25.249.202:8774/v2.1                    |
| object-store            | public    | https://172.25.249.201:13808/v1/AUTH_%(tenant_id)s |
| network                 | internal  | http://172.25.249.202:9696                         |
| orchestration           | public    | https://172.25.249.201:13004/v1/%(tenant_id)s      |
| messaging-websocket     | internal  | ws://172.25.249.202:9000                           |
| identity                | internal  | http://172.25.249.202:5000                         |
| network                 | admin     | http://172.25.249.202:9696                         |
| image                   | public    | https://172.25.249.201:13292                       |
| object-store            | admin     | http://172.25.249.202:8080                         |
+-------------------------+-----------+----------------------------------------------------+

📑查看stack环境变量

(undercloud) [stack@director ~]$ env | grep OS_
OS_BAREMETAL_API_VERSION=1.34
OS_USER_DOMAIN_NAME=Default
OS_PROJECT_NAME=admin
OS_IDENTITY_API_VERSION=3
OS_PASSWORD=redhat
OS_AUTH_TYPE=password
PS1=${OS_CLOUDNAME:+($OS_CLOUDNAME)} [\u@\h \W]\$ 
OS_AUTH_URL=https://172.25.249.201:13000/
OS_USERNAME=admin
OS_NO_CACHE=True
OS_CLOUDNAME=undercloud
OS_PROJECT_DOMAIN_NAME=Default

📑查看undercloud的网络接口

(undercloud) [stack@director ~]$ ip addr | grep -E 'br-ctlplane|eth1'
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    inet 172.25.250.200/24 brd 172.25.250.255 scope global noprefixroute eth1
6: br-ctlplane: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN group default qlen 1000
    inet 172.25.249.200/24 brd 172.25.249.255 scope global br-ctlplane
    inet 172.25.249.202/32 scope global br-ctlplane
    inet 172.25.249.201/32 scope global br-ctlplane

📑查看子网信息

(undercloud) [stack@director ~]$ openstack subnet list -c Name -c Subnet
+---------------------+-----------------+
| Name                | Subnet          |
+---------------------+-----------------+
| external_subnet     | 172.25.250.0/24 |
| management_subnet   | 172.24.5.0/24   |
| internal_api_subnet | 172.24.1.0/24   |
| ctlplane-subnet     | 172.25.249.0/24 |
| storage_mgmt_subnet | 172.24.4.0/24   |
| tenant_subnet       | 172.24.2.0/24   |
| storage_subnet      | 172.24.3.0/24   |
+---------------------+-----------------+
(undercloud) [stack@director ~]$ openstack subnet show ctlplane-subnet
+-------------------+------------------------------------------------------------+
| Field             | Value                                                      |
+-------------------+------------------------------------------------------------+
| allocation_pools  | 172.25.249.51-172.25.249.59                                |
| cidr              | 172.25.249.0/24                                            |
| created_at        | 2018-10-23T13:02:21Z                                       |
| description       |                                                            |
…………

📑查看节点电源状态

(undercloud) [stack@director ~]$ openstack baremetal node list -c Name -c 'Power State'
+-------------+-------------+
| Name        | Power State |
+-------------+-------------+
| controller0 | power on    |
| compute0    | power on    |
| computehci0 | power on    |
| compute1    | power on    |
| ceph0       | power on    |
+-------------+-------------+

📑查看电源管理信息

(undercloud) [stack@director ~]$ openstack baremetal node show -c driver -c driver_info compute1
+-------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Field       | Value                                                                                                                                                                                                                                      |
+-------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| driver      | pxe_ipmitool                                                                                                                                                                                                                               |
| driver_info | {u'ipmi_port': u'623', u'ipmi_username': u'admin', u'deploy_kernel': u'fab32297-d1e2-4598-9e4e-6b02c8982c6f', u'ipmi_address': u'172.25.249.112', u'deploy_ramdisk': u'bc8408a7-3074-4c56-8992-a56637f561e0', u'ipmi_password': u'******'} |
+-------------+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+

💡总结

RHCA认证需要经历5门的学习与考试,还是需要花不少时间去学习与备考的,好好加油,可以噶🤪。

以上就是【金鱼哥】对 第一章 红帽OpenStack平台架构--介绍undercloud 的简述和讲解。希望能对看到此文章的小伙伴有所帮助。

💾 红帽认证专栏系列:
RHCSA专栏: 戏说 RHCSA 认证
RHCE专栏: 戏说 RHCE 认证
此文章收录在RHCA专栏: RHCA 回忆录

如果这篇【文章】有帮助到你,希望可以给【金鱼哥】点个赞👍,创作不易,相比官方的陈述,我更喜欢用【通俗易懂】的文笔去讲解每一个知识点。

如果有对【运维技术】感兴趣,也欢迎关注❤️❤️❤️ 【金鱼哥】❤️❤️❤️,我将会给你带来巨大的【收获与惊喜】💕💕!

目录
相关文章
|
22天前
|
SQL 存储 分布式计算
ODPS技术架构深度剖析与实战指南——从零开始掌握阿里巴巴大数据处理平台的核心要义与应用技巧
【10月更文挑战第9天】ODPS是阿里巴巴推出的大数据处理平台,支持海量数据的存储与计算,适用于数据仓库、数据挖掘等场景。其核心组件涵盖数据存储、计算引擎、任务调度、资源管理和用户界面,确保数据处理的稳定、安全与高效。通过创建项目、上传数据、编写SQL或MapReduce程序,用户可轻松完成复杂的数据处理任务。示例展示了如何使用ODPS SQL查询每个用户的最早登录时间。
69 1
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
医疗行业的语音识别技术解析:AI多模态能力平台的应用与架构
AI多模态能力平台通过语音识别技术,实现实时转录医患对话,自动生成结构化数据,提高医疗效率。平台具备强大的环境降噪、语音分离及自然语言处理能力,支持与医院系统无缝集成,广泛应用于门诊记录、多学科会诊和急诊场景,显著提升工作效率和数据准确性。
|
8天前
|
监控 API 调度
开放源代码平台Flynn的架构与实现原理
【10月更文挑战第21天】应用程序的生命周期涉及从开发到运行的复杂过程,包括源代码、构建、部署和运行阶段。
|
19天前
|
机器学习/深度学习 自然语言处理 搜索推荐
大厂 10Wqps智能客服平台,如何实现架构演进?
40岁老架构师尼恩,凭借深厚的架构功力,指导众多小伙伴成功转型大模型架构师,实现职业逆袭。尼恩的《LLM大模型学习圣经》系列PDF,从基础理论到实战应用,全面覆盖大模型技术,助力读者成为大模型领域的专家。该系列包括《从0到1吃透Transformer技术底座》《从0到1吃透大模型的基础实操》《从0到1吃透大模型的顶级架构》等,内容详实,适合不同水平的读者学习。此外,尼恩还分享了多个智能客服平台的实际案例,展示了大模型在不同场景中的应用,为读者提供了宝贵的实践经验。更多技术资料和指导,请关注尼恩的《技术自由圈》公众号。
大厂 10Wqps智能客服平台,如何实现架构演进?
|
27天前
|
消息中间件 缓存 Java
亿级流量电商平台微服务架构详解
【10月更文挑战第2天】构建一个能够处理亿级流量的电商平台微服务架构是一个庞大且复杂的任务,这通常涉及到多个微服务、数据库分库分表、缓存策略、消息队列、负载均衡、熔断降级、分布式事务等一系列高级技术和架构模式。
71 3
|
2月前
|
Cloud Native Java 编译器
将基于x86架构平台的应用迁移到阿里云倚天实例云服务器参考
随着云计算技术的不断发展,云服务商们不断推出高性能、高可用的云服务器实例,以满足企业日益增长的计算需求。阿里云推出的倚天实例,凭借其基于ARM架构的倚天710处理器,提供了卓越的计算能力和能效比,特别适用于云原生、高性能计算等场景。然而,有的用户需要将传统基于x86平台的应用迁移到倚天实例上,本文将介绍如何将基于x86架构平台的应用迁移到阿里云倚天实例的服务器上,帮助开发者和企业用户顺利完成迁移工作,享受更高效、更经济的云服务。
将基于x86架构平台的应用迁移到阿里云倚天实例云服务器参考
|
2月前
|
缓存 物联网 数据库
如何帮助我们改造升级原有架构——基于TDengine 平台
一、简介 TDengine 核心是一款高性能、集群开源、云原生的时序数据库(Time Series Database,TSDB),专为物联网IoT平台、工业互联网、电力、IT 运维等场景设计并优化,具有极强的弹性伸缩能力。同时它还带有内建的缓存、流式计算、数据订阅等系统功能,能大幅减少系统设计的复杂度,降低研发和运营成本,是一个高性能、分布式的物联网IoT、工业大数据平台。 二、TDengine 功能与组件 TDengine 社区版是一开源版本,采用的是 AGPL 许可证,它具备高效处理时序数据所需要的所有功能,包括: SQL 写入、无模式写入和通过第三方工具写入 S标准 SQL 查
74 13
|
2月前
|
监控 Android开发 iOS开发
深入探索安卓与iOS的系统架构差异:理解两大移动平台的技术根基在移动技术日新月异的今天,安卓和iOS作为市场上最为流行的两个操作系统,各自拥有独特的技术特性和庞大的用户基础。本文将深入探讨这两个平台的系统架构差异,揭示它们如何支撑起各自的生态系统,并影响着全球数亿用户的使用体验。
本文通过对比分析安卓和iOS的系统架构,揭示了这两个平台在设计理念、安全性、用户体验和技术生态上的根本区别。不同于常规的技术综述,本文以深入浅出的方式,带领读者理解这些差异是如何影响应用开发、用户选择和市场趋势的。通过梳理历史脉络和未来展望,本文旨在为开发者、用户以及行业分析师提供有价值的见解,帮助大家更好地把握移动技术发展的脉络。
74 6
|
2月前
|
编解码 Linux 开发工具
Linux平台x86_64|aarch64架构RTMP推送|轻量级RTSP服务模块集成说明
支持x64_64架构、aarch64架构(需要glibc-2.21及以上版本的Linux系统, 需要libX11.so.6, 需要GLib–2.0, 需安装 libstdc++.so.6.0.21、GLIBCXX_3.4.21、 CXXABI_1.3.9)。
|
3月前
|
存储 Linux 云计算
OpenStack云计算平台搭建
OpenStack 是一个开源的云平台管理项目,通过多个核心组件实现公有云、私有云和混合云的构建与管理。自2010年由NASA和Rackspace联合发起以来,已有众多企业和个人参与开发。OpenStack 简化了云部署流程,支持计算、存储和网络资源的高效管理,并兼容多种虚拟化技术和容器。最新版本为Xena,广泛应用于各行各业,如思科、英特尔等公司。
235 0