11gR2 集群管理软件(GI) 启动顺序和诊断方法简介

简介: 在这篇文章里我们会对11gR2 GI 的启动顺序进行介绍,并且对常见的GI启动时遇到的问题和对应的解决办法进行介绍。     基本上我们可以把GI的启动过程分成3个阶段,ohasd阶段,构建集群阶段,启动资源阶段。
在这篇文章里我们会对11gR2 GI 的启动顺序进行介绍,并且对常见的GI启动时遇到的问题和对应的解决办法进行介绍。

 

 

基本上我们可以把GI的启动过程分成3个阶段,ohasd阶段,构建集群阶段,启动资源阶段。

 

首先,ohasd阶段。

 

1. /etc/inittab文件中的脚本

 

h1:35:respawn:/etc/init.d/init.ohasd run >/dev/null 2>&1 /null

 

被调用,产生下面的进程

 

root 4865 1 0 Dec02 ? 00:01:01 /bin/sh /etc/init.d/init.ohasd run

 

所以如果说你没有发现这个进程,那么说明

 

+init.ohasd 脚本可能没有被调用

 

+ os运行在不正确的级别

 

+ 一些S* ohasd脚本挂起, 例如S96ohasd

 

+ GI没有配置自动启动(crsctl enable crs)

 

之后,ohasd.bin 进程会被启动,这个时候OLR会被访问,所以,如果ohasd.bin不能正常工作,就需要查看OLR是否存在而且能够被正常访问。OLR存放在$GRID_HOME/cdata/${HOSTNAME}.olr

 


 

2. ohasd.bin进程会启动对应的agents(orarootagent, oraagent, cssdagnet 和 cssdmonitor) 来启动集群的初始化资源。如果说,您发现这些agent进程不能启动,很多时候都是由于路径$GRID_HOME/bin 下的可执行文件存在问题,例如,文件权限设置有问题,文件corruption. 

 

接下来,构建集群阶段。

 

1. Mdnsd 进程透过多播(Multicast)发现集群中的节点和所有的网卡信息。所以,一定要确定集群中的网卡支持多播。而且节点间的通信正常。

 

2. Gpnpd 进程启动,发布构建集群所需要的bootstrap 信息,并且在集群的所有节点之间同步gpnp profile。当然,同步是透过mdnsd实现的。所以,如果是这个进程存在问题,您需要确认节点间的通信正常,而且gpnp profile (/gpnp/profiles/peer/profile.xml)存在而且可以被访问。

 

3. Gipcd 进程启动,这个进程负责管理集群中所有的私网(cluster interconnect)网卡。当然,私网信息是通过gpnpd获得的,所以,如果这个进程存在问题,您需要确认gpnpd 进程正常运行。

 

4. Ocssd.bin 进程启动。这个进程首先通过gpnp profile中的信息发现表决盘(Voting Disk),之后通过gpnpd 进程获得集群私网信息,和其他的节点建立连接。所以,如果ocssd.bin 不能正常运行,您需要确认一下的信息

 

+ gpnp profile 存在而且可以被访问。

 

+ gpnpd 进程正常运行。

 

+ 表决盘所在的asm disk 或设备能够正常被访问。

 

+ 节点私网间的通信正常。

 

5. 启动其他的初始化进程:ora.ctssd, ora.asm, ora.cluster_interconnect.haip, ora.crf, ora.crsd 等。

 

注意:以上的过程是同时进行的。也就是说ocssd.bin, gpnpd.bin 和 gipcd.bin 同时启动,直到gpnpd.bin正常运行,ocssd.bin 和 gipcd.bin 才能获得相应的信息,在gpnpd.bin没有正常运行之前,ocssd.bin 和 gipcd.bin 中出现的无法访问gpnp profile错误是可以忽略掉的。

 

最后,资源启动阶段。在这个阶段,主要是通过crsd进程启动各个资源。

 

1. Crsd进程启动。这个进程需要访问OCR,如果您的OCR是存放在ASM上,需要确保

 

ASM实例正常运行,并且OCR所在的ASM磁盘组已经装载。如果OCR存放在裸设备上,那么需要确保对应的设备正常运行。

 

2. Crsd 启动对应的agents(orarootagent, oraagent_, oraagent_ )。如果agent不能启动,很多时候都是由于路径$GRID_HOME/bin 下的可执行文件存在问题,例如,文件权限设置有问题,文件corruption.

 

3. 所有的资源启动。

 

 ora.net1.network : 网络资源,这个资源负责管理集群的公网,scanvip, vip, listener资源都依赖于这个资源。所以,如果这个资源存在问题,vip, scanvip 和listener 都会offline,您需要检查公网是否存在问题。

 

ora..vip:scan对应的vip资源,最多可以有3个。

 

ora..vip : 节点对应的vip 资源

 

ora..lsnr: 监听程序资源。在这里我们要注意,从11gR2开始,listener.ora文件会自动生成,不再需要手动修改。

 

ora.LISTENER_SCAN.lsnr: scan 监听程序。

 

ora..dg: ASM 磁盘组资源。这个资源会在磁盘组被mount时创建,dismount时删除。

 

ora..db: 数据库资源。在11gR2中实例资源已经不再存在了,新的数据库资源会管理rac 数据库的所有实例,而数据库包含哪些实例,是通过资源参数“USR_ORA_INST_NAME@SERVERNAME( )”来决定的。另外,如果您的数据库存储在ASM磁盘上,那么数据库资源会依赖于对应的磁盘组资源,这个dependency是自动添加的。但是,如果数据库被转移到了其他的磁盘组之后,原有的dependancy不会被自动删除,需要手动删除(crsctl modify res ……)。

 

ora..svc:数据库服务资源。从11gR2 开始,这个资源只有一个了,不会像10gR2一样,每个数据库服务资源包含,srv 和cs 两个资源。

 

ora.cvu :这个资源从11.2.0.2被引入,定期对集群执行cluvfy操作,验证集群是否存在一些配置上的问题

 

ora.ons : ONS资源,和之前版本的功能,基本相同。

 

另外,我们对诊断GI启动问题所需要查看的文件进行简单的介绍

 

$GRID_HOME/log//ocssd  

$GRID_HOME/log//gpnpd  

$GRID_HOME/log//gipcd  

$GRID_HOME/log//agent/crsd  

$GRID_HOME/log//agent/ohasd  

$GRID_HOME/log//mdnsd  

$GRID_HOME/log//client  

$GRID_HOME/log//ctssd  

$GRID_HOME/log//crsd  

$GRID_HOME/log//cvu  

$GRID_HOME/bin/diagcollection.sh  

最后,集群的套接字文件(/var/tmp/.oracle 或 /tmp/.oracle),由于集群中很多进程之间的通信都是通过ipc实现的,所以,这些套接字文件一定要存在而且权限正确。


可以用下面的命令来查看GI相关的deamon的启动情况:
#ps -ef|grep init
#ps -ef|grep d.bin
#crsctl stat res -t -init
#crsctl check crs
关于这些命令,再详细解释一下。

1. #ps -ef|grep init, 对于11gR2,这个命令只会返回init.ohasd的信息, 如果没有类似于下面的信息显示,说明init.ohasd并没有启动,问题可能出现在/etc/init.d/init.ohasd脚本没有被调用。
root      7305     1  0 Mar05 ?        00:00:00 /bin/sh /etc/init.d/init.ohasd run

2. #ps -ef|grep d.bin, 这个命令可以帮我们找到有哪些daemon已经产生,例如crsd.bin, ocssd.bin 等等。

3. #crsctl stat res -t -init,这个命令用于查看哪些 init 资源被启动了(所谓的init资源是指由 ohasd 启动的资源)。 如果要查看集群的其他资源,可以用命令
crsctl stat res -t

4. #crsctl check crs , 这个命令主要是验证,ohasd, css, crs 和 evm 这几个层面的健康型。对于我们了解问题出现在哪个层面是有帮助的。

对于10g, 过程要简单很多。

1. 首先, /etc/inittab(不同平台文件名可能不同),文件中的下面3行被调用。

h1:35:respawn:/etc/init.d/init.evmd run >/dev/null 2>&1 /null

h2:35:respawn:/etc/init.d/init.cssd fatal >/dev/null 2>&1 /null

h3:35:respawn:/etc/init.d/init.crsd run >/dev/null 2>&1 /null

 

这三个脚本是被同时调用的,每个脚本负责启动对应的守护进程。

 

 

2. 接下来,init.cssd 脚本负责把 ocssd.bin 守护进程启动并确认它正常工作, 之后crsd.bin 守护进程在发现ocssd.bin 正常云信之后,开始完成自己的启动,并开始启动集群的各个资源。

 

3. 最后,当crsd.bin 正常工作之后, evmd.bin 后台进程也就可以被正常启动并运行了。

 

 

所以,虽然那3个脚本是同时被调用,但是守护进程之间是有依赖关系的, ocssd.bin --> crsd.bin --> evmd.bin


以上,我们对GI启动的顺序和基本的诊断方法进行了简单的介绍,希望能够为大家在诊断GI启动问题时能够提供一些帮助。

目录
相关文章
|
1月前
|
存储 Kubernetes 监控
K8S集群上安装KubeSphere的详细过程
K8S集群上安装KubeSphere的详细过程
29 0
|
1月前
|
Kubernetes Linux Docker
深度解析:Kubernetes 1.28.2集群安装过程中的关键步骤
本文旨在为读者提供一份详尽的Kubernetes 1.28.2集群安装指南,帮助您从零开始构建稳定、高效的Kubernetes集群。我们将从环境准备、软件安装、集群初始化到节点添加等各个环节进行逐步讲解,确保您能够顺利完成集群的搭建。
|
JSON Prometheus 监控
在ASM中为应用服务启用SLO(5):使用Grafana查看SLO
Grafana是开源的数据可视化平台,它可以生成各种可视化仪表,大大帮助我们简化监控的复杂度,下面介绍如何使用Grafana查看SLO相关指标。
201 0
在ASM中为应用服务启用SLO(5):使用Grafana查看SLO
|
Prometheus 监控 Kubernetes
在ASM中为应用服务启用SLO(4):导入生成的规则到Prometheus中执行SLO
服务等级目标SLO可以用于衡量服务的水平。用户可以基于Prometheus指标手动定义SLO,但过程相对繁琐。ASM服务网格提供了生成SLO以及配套的告警规则的能力,能够通过自定义资源YAML配置的方式简化这一流程。本文将介绍如何将生成的规则导入到Prometheus中以及如何执行SLO。
265 0
在ASM中为应用服务启用SLO(4):导入生成的规则到Prometheus中执行SLO
|
Kubernetes 关系型数据库 MySQL
【kubernetes】升级调整:二进制文件方式安装 Kubernetes v1.25.4集群
【kubernetes】升级调整:二进制文件方式安装 Kubernetes v1.25.4集群
851 3
【kubernetes】升级调整:二进制文件方式安装 Kubernetes v1.25.4集群
|
JSON Kubernetes Cloud Native
OpenKruise v1.3:新增自定义 Pod Probe 探针能力与大规模集群性能显著提升
在版本 v1.3 中,OpenKruise 提供了新的 CRD 资源 PodProbeMarker,改善了大规模集群的一些性能问题,Advanced DaemonSet 支持镜像预热,以及 CloneSet、WorkloadSpread、Advanced CronJob、SidecarSet 一些新的特性。
|
存储 机器学习/深度学习 运维
Kubernetes 上运行有状态应用的最佳实践
在容器化的早期阶段,它们被设定为一种运行无状态应用的机制。
300 0
Kubernetes 上运行有状态应用的最佳实践
|
存储 Kubernetes IDE
与 Kubernetes 共存:调试工作负载的 12 个命令
与 Kubernetes 共存:调试工作负载的 12 个命令
216 0
与 Kubernetes 共存:调试工作负载的 12 个命令
|
存储 Kubernetes Cloud Native
Kubernetes运行有状态应用程序的注意事项
Kubernetes运行有状态应用程序的注意事项
107 0
|
Kubernetes 网络协议 Docker
关于 Kubernetes中Pod健康检测和服务可用性检查的一些笔记(LivenessProbe+ReadinessProbe)
中秋明月,豪门有,贫家也有。极慰人心。 ——烽火戏诸侯《剑来》
633 0
关于 Kubernetes中Pod健康检测和服务可用性检查的一些笔记(LivenessProbe+ReadinessProbe)