**集团RAC 11g 虚拟机生产库环境-阿里云开发者社区

开发者社区> 数据库> 正文
登录阅读全文

**集团RAC 11g 虚拟机生产库环境

简介: <p><br></p> <p></p> <p> </p> <p>操作系统 oracle-5.9.iso</p> <p>数据库版本 oracle11g-11.2.0.3.iso</p> <p>大     小 80G</p> <p>/         30G</p> <p>/opt      50G</p> <p>存储</p> <p>注意:  11g中决策盘和仲裁盘在中是一样


 

操作系统 oracle-5.9.iso

数据库版本 oracle11g-11.2.0.3.iso

大     小 80G

/         30G

/opt      50G

存储

注意:  11g中决策盘和仲裁盘在中是一样的,10g决策和仲裁盘必须分开 

 

决策盘、仲裁盘 2G *2   ocr1 ocr2 (grid)

归档备份文件 2G*2     

数据盘        200G*2 DG1   DG2

主机配置       CPU8G 内存8G

 

IP地址规划

 

节点一

主机 172.16.15.101/23 

掩码

pub-vip     172.16.15.86/23

pri-vip      10.11.11.1/29

scan        172.16.15.100  

主句名      racdb1.kingvon.com

 

节点二

主机      172.16.15.102/23 

掩码

pub-vip     172.16.15.87/23

pri-vip      10.11.11.2/29

scan       172.16.15.200  

主句名      racdb2..kingvon.com

 

节点三

主机     172.16.15.103/23 

掩码

pub-vip     172.16.15.88/23

pri-vip      10.11.11.3/29

scan        172.16.15.300  

主句名      racdb3.kingvon.com

 

安装步骤:

 

一、 配置存储

 

二、 配置操作系统(参数)

1、配置IP地址、主机名、内核参数

2、建立安装目录、修改hosts文件

3、解析主机名

4、初始化内核模块

5、识别存储、扫描磁盘

6、对磁盘分区、生效

7、配置时间同步服务器

8、配置SSH等效性

9、关闭selinux、防火墙

 

三、 安装grid集群管理软件

四、 配置ASM

五、 安装数据库




开始配置

 

一、环境检查(硬件+软件)

硬件环境:

root用户:

内存

# grep MemTotal /proc/meminfo

[root@localhost ~]# grep MemTotal /proc/meminfo

MemTotal:        8193556 kB

 

root用户:

swap空间

swap:交换空间swap为8G(内存为1~2G时,swap为起1.5倍,如果大于2G,swap等于内存大小

# grep SwapTotal /proc/meminfo

[root@localhost ~]# grep SwapTotal /proc/meminfo

SwapTotal:      10223612 kB

 

root用户:

/tmp:/tmp> 500M 最好不少于1G

# df -k /tmp

[root@localhost ~]# df -k /tmp

Filesystem           1K-blocks      Used Available Use% Mounted on

/dev/mapper/VolGroup00-LogVol00

                      71228736   5047624  62504544   8% /

 

root用户:

/home:/home> 500M 最好不少于1G

# df -k /home

[root@localhost ~]# df -k /home

Filesystem           1K-blocks      Used Available Use% Mounted on

/dev/mapper/VolGroup00-LogVol00

                      71228736   5047624  62504544   8% /

 

root用户:

系统空间:系统磁盘空间还有不少于6G空间,

# df –h

[root@localhost ~]# df -h

Filesystem            Size  Used Avail Use% Mounted on

/dev/mapper/VolGroup00-LogVol00

                       68G  4.9G   60G   8% /

/dev/sda1              99M   25M   70M  26% /boot

tmpfs                 4.0G     0  4.0G   0% /dev/shm

/dev/sr0              3.8G  3.8G     0 100% /mnt/iso

 

安装中不使用防火墙和selinux

关闭防火墙:

/etc/init.d/iptables stop 

chkcnfig iptables off

 

关闭selinux

[root@localhost ~]# vim /etc/sysconfig/selinux 

# This file controls the state of SELinux on the system.

# SELINUX= can take one of these three values:

# enforcing - SELinux security policy is enforced.

# permissive - SELinux prints warnings instead of enforcing.

# disabled - SELinux is fully disabled.

SELINUX=disabled

# SELINUXTYPE= type of policy in use. Possible values are:

# targeted - Only targeted network daemons are protected.

# strict - Full SELinux protection.

SELINUXTYPE=targeted


 

2、软件环境

对于oracle linux要求内核至少为2.6.16.21

[root@localhost ~]# uname -r

2.6.39-300.26.1.el5uek

 

删除多余的软件包(如果不把它们删除,将严重干扰后续ORACLE的安装和配置

# rpm -qa ora*

orarun-1.9-21.15 ---针对 suse Linux

OLlinux5.9 :

[root@localhost ~]# rpm -qa ora*

oracle-logos-4.9.17-10

oraclelinux-release-5-9.0.2

oracle-linux-5.0.0-9.el5

 

# rpm -qa sap*-------针对suse Linux

sapinit-2.0.1-1.10

OLlinux5.9 :

rpm -qa sap*----空

 

# rpm -e orarun-1.9-21.15-------针对suse Linux

# rpm -e sapinit-2.0.1-1.10-------针对suse Linux

# rm i /etc/oraInst.loc-------针对suse Linux

 

软件包:(推荐yum源)

 

binutils-2.17.50.0.6 --------这个是配置DNS服务器使用(鉴于公司的局域网--没有做)

compat-libstdc++-

compat-libstdc++-33-3.2.3 

elfutils-libelf-0.125 

elfutils-libelf-devel-0.125 

elfutils-libelf-devel-static-0.125 

gcc-4.1.2 

gcc-c++-4.1.2 

glibc-2.5-24 

glibc-2.5-24

glibc-common-2.5 

glibc-devel-2.5 

glibc-devel-2.5 

glibc-headers-2.5 

libaio-0.3.106 

libaio-0.3.106 

libaio-devel-0.3.106

libgcc-4.1.2  

libstdc++-4.1.2  

libstdc++-devel 4.1.2 

make-3.81 

sysstat-7.0.2

unixODBC-2.2.11

unixODBC-devel-2.2.11

假如安装不上unixODBC

那么安装 unixODBC64*

 

oracleasm-2.6.16.60-0.21-bigsmp-2.0.4-1.

oracleasm-support-2.1.3-1

oracleasmlib-2.0.4-1

顺便安装 oacleasmlib*

没有需要上传

rpm -ivh oracleasmlib*

驱动

做环境监测时候还会提示我们安装包(必须全部安装所需包)

rpm -ivh /tmp/oracleasmlib-2.0.4-1.el5.x86_64.rpm 

warning: /tmp/oracleasmlib-2.0.4-1.el5.x86_64.rpm: Header V3 DSA signature: NOKEY, key ID 1e5e0159

Preparing...                ########################################### [100%]

   1:oracleasmlib           ########################################### [100%]

 

 

一、配置网络 

[root@localhost ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0 

# Intel Corporation 82545EM Gigabit Ethernet Controller (Copper)

DEVICE=eth0

BOOTPROTO=none

BROADCAST=172.16.15.255

HWADDR=00:50:56:a8:7f:ac

IPADDR=172.16.15.101

IPV6INIT=yes

IPV6_AUTOCONF=yes

NETMASK=255.255.254.0

NETWORK=172.16.14.0

ONBOOT=yes

HOTPLUG=yes

GATEWAY=172.16.14.1

TYPE=Ethernet

重启服务

/etc/init.d/network restart 

 

hostname m1

vim /etc/hosts

#public network

172.16.15.101   m1

172.16.15.102   m2

172.16.15.103   m3

#private network

10.11.11.1      m1-priv

10.11.11.2      m2-priv

10.11.11.3      m3-priv

#VIP network

172.16.15.104   m1-vip

172.16.15.105   m2-vip

172.16.15.106   m3-vip

#racscan network

172.16.15.100   rac-scan

 

 

1、配置yum 源 

    虚拟机上挂载 ISO镜像 

    root用户:

mkdir  /mnt/cdrom 

mkdir  /mnt/iso

mount  /dev/cdrom  /mnt/cdrom 

cp -Rf  /mnt/cdrom/*  /mnt/iso 

2、cp  /etc/yum.repo.d/redhat-el5.repo /etc/yum.repo.d/local.repo

3、vim /etc/yum.repo.d/local.repo 清空--添加如下

[Cluster]

name=Cluster

baseurl=file:/mnt/iso/Cluster

enabled=1

gpgcheck=0

gpgkey=file:/mnt/iso/RPM-GPG-KEY-oracle

[VT]

name=VT

baseurl=file:/mnt/iso/VT

enabled=1

gpgcheck=0

gpgkey=file:/mnt/iso/RPM-GPG-KEY-oracle

[ClusterStorage]

name=ClusterStorage

baseurl=file:/mnt/iso/ClusterStorage

enabled=1

gpgcheck=0

gpgkey=file:/mnt/iso/RPM-GPG-KEY-oracle

[Server]

name=Server

baseurl=file:/mnt/iso/Server

enabled=1

gpgcheck=0

gpgkey=file:/mnt/iso/RPM-GPG-KEY-oracle

 

2、修改内核参数

 

# Controls the maximum size of a message, in bytes

kernel.msgmnb = 65536

# Controls the default maxmimum size of a mesage queue

kernel.msgmax = 65536

# Controls the maximum shared segment size, in bytes

kernel.shmmax = 68719476736

# Controls the maximum number of shared memory segments, in pages

kernel.shmall = 4294967296

 

fs.aio-max-nr = 1048576

fs.file-max = 6815744

kernel.shmall = 2097152

kernel.shmmni = 4096

kernel.shmall = 4294967296

kernel.sem = 1250 640000 1250 512

fs.file-max = 6815744

fs.aio-max-nr = 6815744

net.ipv4.ip_local_port_range = 9000 65500

net.core.rmem_default = 4194304

net.core.rmem_max = 4194304

net.core.wmem_default = 4194304

net.core.wmem_max = 4194304

kernel.shmmni = 4096

生效:

sysctl  -p

 

3、修改开文件数的限制

vim /etc/security/limits.conf

grid                 soft    nproc   8188 

grid                 hard    nproc   65536

grid                 soft    nofile  4096

grid                 hard    nofile  262144

oracle               soft    nproc   8188

oracle               hard    nproc   65536

oracle               soft    nofile  4096

oracle               hard    nofile  262144

 

4、修改login文件

vim /etc/pam.d/login

sessionrequiredpam_limits.so

 

5、创建grid oracle用户

groupadd -g 501 oinstall

groupadd -g 502 dba

groupadd -g 503 oper

groupadd -g 504 asmadmin

groupadd -g 505 asmoper

groupadd -g 506 asmdba

useradd -g oinstall -G dba,asmdba,oper oracle

useradd -g oinstall -G asmadmin,asmdba,asmoper,oper,dba grid

passwd grid   

passwd oracle

 

6 修改用户环境变量

 

grid用户:

vim /home/grid/.bash_profile

 

export ORACLE_BASE=/opt/oracle

export ORACLE_HOME=/oracle/grid

export ORACLE_SID=+ASM1

export ORA_CRS_HOME=/oracle/crs

export NLS_LANG=AMERICAN_AMERICA.UTF8

export NLS_DATE_FORMAT="yyyy-mm-dd hh24:mi:ss"

export PATH=.:${PATH}:$HOME/bin:$ORACLE_HOME/bin

export PATH=${PATH}:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin

export ORACLE_PATH=${PATH}:$ORACLE_HOME/rdbms/admin

export ORACLE_TERM=xterm

export TNS_ADMIN=$ORACLE_HOME/network/admin

export ORA_NLS10=$ORACLE_HOME/nls/data

export LD_LIBRARY_PATH=$ORACLE_HOME/lib

export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$ORACLE_HOME/oracm/lib

export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/lib:/usr/lib:/usr/local/lib

export CLASSPATH=$ORACLE_HOME/JRE

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/jlib

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/rdbms/jlib

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/network/jlib

export THREADS_FLAG=native

export TEMP=/tmp

export TMPDIR=/tmp

export PS1=`hostname`:'$PWD'"$"

umask 022

建立目录:

mkdir -p /oracle/ grid

chown -R grid:oinstall /oracle

mkdir  /oracle/db

chown oracle:oinstall /oracle/db

mkdir  /oracle/crs

chown oracle:oinstall /oracle/crs

chmod -R 775 /oracle

 

 

oracle用户:

vim /home/oracle/.bash_profile

 

export ORACLE_BASE=/oracle

export ORACLE_HOME=/oracle/db

export ORACLE_SID=mes1 

export ORACLE_UNQNAME=mes

export NLS_LANG=AMERICAN_AMERICA.UTF8

export NLS_DATE_FORMAT="yyyy-mm-dd hh24:mi:ss"

export PATH=.:${PATH}:$HOME/bin:$ORACLE_HOME/bin

export PATH=${PATH}:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin:/home/oracle/bin

export ORACLE_PATH=${PATH}:$ORACLE_HOME/rdbms/admin

export ORACLE_TERM=xterm

export TNS_ADMIN=$ORACLE_HOME/network/admin

export ORA_NLS10=$ORACLE_HOME/nls/data

export LD_LIBRARY_PATH=$ORACLE_HOME/lib

export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$ORACLE_HOME/oracm/lib

export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/lib:/usr/lib:/usr/local/lib

export CLASSPATH=$ORACLE_HOME/JRE

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/jlib

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/rdbms/jlib

export CLASSPATH=${CLASSPATH}:$ORACLE_HOME/network/jlib

export THREADS_FLAG=native

export TEMP=/tmp

export TMPDIR=/tmp

export PS1=`hostname`:'$PWD'"$"

umask 022

 

 

7 网格grid产品安装到 /oracle/grid

数据库oracle软件安装到/opt/oracle

维护的磁盘在共享存储中 dbca建立的数据库位置放在存储设备上。

xhost + 都必须正确 任何一台都不能出错


第一台:

14203  


    


第二台 :


主机的存储(意思是系统放在那里)


机内盘

第三台





8 配置存储

这里我遇到问题了

1 Udev方式(推荐)

参见:http://www.oracledatabase12g.com/archives/why-asmlib-and-why-not.html

2 ASMLib 方式

3 裸设备

 

我的错误做法:

Udev方式

RAC看图不说话上思路:

1、 初始化Oracle内核模块 oracleasm configure 

2、 配置Udev

 

ASMLib方式

ITPUB上:

1、oracleasm createdisks CRS1 /dev/sdb1 /dev/sdc1

2、初始化内核模块

 

我:

1、初始化内核模块 oracleasm configure

2、配置ASMLib  /etc/init.d/oracleasm  createdisks /dev/sdb1 /dev/sdc1 。。。。

3、配置udev 

修改了 /etc/rc.local  

4、配置裸设备 /dev/raw/raw1 /dev/raw/raw2 

 

三个都搞了 

1 孟哥说的他之前的设备是搞的裸设备 我信了 

2 对于这一块 之前 我确实是用的裸设备10g 但是现在 我忘了 还有版本变了11g r2

 

3、 我删除了磁盘新建了 

4、 现在只是配置udev

 

第一步 编辑虚拟机





第三步 点击硬盘 点击 下一步




第四步 选择 使用现有的磁盘



第五步骤 


第六步骤











第十二步骤 接着添加 第二块 CRS 2 盘了 操作步骤是一样的 要仔细看上面我的操作步骤 下面的我截图 只是 截你自己需要注意的或者容易出错的 














m2 开始:

步骤一样的 但是选择需要注意 我会截图的

注意 不要选这个 存储是共用的 还是选择m1.db 当时 是呀 m1建立的存储 










 

解决办法:

重新启动一下 m2.db  m3.db 然后重新添加 没得事 以硬件的方式添加照样没得错。

或者关闭m1.db 主机 原因不详。

 

我之前出现一个错误:发现不了磁盘 

配置了ASMLib 绑定了ASM磁盘组

配置了Udev 邦定了Udev

配置了RAW裸设备绑定了裸设备 

RAC看图不说话 是基于Linux 6平台的只能参考不能

测试:

只是配置udev

 

 

绑定裸设备

vim /etc/udev/rules.d/60-raw.rules

添加

ACTION=="add", KERNEL=="sdb1", RUN+="/bin/raw /dev/raw/raw1 %N"

ACTION=="add", KERNEL=="sdc1", RUN+="/bin/raw /dev/raw/raw2 %N"

ACTION=="add", KERNEL=="sdd1", RUN+="/bin/raw /dev/raw/raw3 %N"

ACTION=="add", KERNEL=="sde1", RUN+="/bin/raw /dev/raw/raw4 %N"

ACTION=="add", KERNEL=="sdf1", RUN+="/bin/raw /dev/raw/raw5 %N"

 

KERNEL=="raw1", OWNER="grid", GROUP="oinstall", MODE="660"

KERNEL=="raw2", OWNER="grid", GROUP="oinstall", MODE="660"

KERNEL=="raw3", OWNER="grid", GROUP="oinstall", MODE="660"

KERNEL=="raw4", OWNER="grid", GROUP="oinstall", MODE="660"

KERNEL=="raw5", OWNER="grid", GROUP="oinstall", MODE="660"


 

start_udev 

ls /dev/raw

[root@m1 ~]# ls /dev/raw/ -l

crw-rw---- 1 grid oinstall 162, 1 Oct  8 03:33 raw1

crw-rw---- 1 grid oinstall 162, 2 Oct  8 03:33 raw2

crw-rw---- 1 grid oinstall 162, 3 Oct  8 03:33 raw3

crw-rw---- 1 grid oinstall 162, 4 Oct  8 03:33 raw4

crw-rw---- 1 grid oinstall 162, 5 Oct  8 03:33 raw5 

加入你用 ll –ls /dev/sd*

[root@m1 ~]# ls -l /dev/sd*

brw-r----- 1 root disk 8,  0 Oct 11  2013 /dev/sda

brw-r----- 1 root disk 8,  1 Oct 11 09:23 /dev/sda1

brw-r----- 1 root disk 8,  2 Oct 11  2013 /dev/sda2

brw-r----- 1 root disk 8, 16 Oct 11  2013 /dev/sdb

brw-r----- 1 root disk 8, 17 Oct 11  2013 /dev/sdb1

brw-r----- 1 root disk 8, 32 Oct 11  2013 /dev/sdc

brw-r----- 1 root disk 8, 33 Oct 11  2013 /dev/sdc1

brw-r----- 1 root disk 8, 48 Oct 11  2013 /dev/sdd

brw-r----- 1 root disk 8, 49 Oct 11  2013 /dev/sdd1

brw-r----- 1 root disk 8, 64 Oct 11  2013 /dev/sde

brw-r----- 1 root disk 8, 65 Oct 11  2013 /dev/sde1

brw-r----- 1 root disk 8, 80 Oct 11  2013 /dev/sdf

brw-r----- 1 root disk 8, 81 Oct 11  2013 /dev/sdf1

看到的是 root disk 所以 因为是root 用户 

所以之前 我遇到的那个问题就可以解决了。

 

磁盘规划:

 

磁盘的划分后,两节点都能看到,能正确读写。

在其中一节点上运行fdisk -l划分以下分区

/dev/sda1  15G是基类硬盘存放操作系统

/dev/sda2  63G是基类硬盘

 

/dev/sdb1  1G存放CRS 仲裁盘 决策盘

/dev/sdc1  1G存放CRS 

/dev/sdf1  1G存放CRS

/dev/sdd1  200G  存放数据 数据盘

/dev/sde1  200G  存放数据

 

----/dev/sdd5  50G存放recover-----

----/dev/sdd6  50G存放flash-----

 

配置ASM磁盘

4、以 root 用户身份在两个节点上配置 ASMLib。 --两个节点

5、/etc/init.d/oracleasm configure

6、Configuring the Oracle ASM library driver.

7、This will configure the on-boot properties of the Oracle ASM library

8、driver.  The following questions will determine whether the driver is

9、loaded on boot and what permissions it will have.  The current values

10、will be shown in brackets ('[]').  Hitting <ENTER> without typing an

11、answer will keep that current value.  Ctrl-C will abort.

12、Default user to own the driver interface []: grid

13、Default group to own the driver interface []: asmadmin

14、Start Oracle ASM library driver on boot (y/n) [n]: y

15、Scan for Oracle ASM disks on boot (y/n) [y]: y

16、Writing Oracle ASM library driver configuration: done

17、Initializing the Oracle ASMLib driver:                       OK

18、Scanning the system for Oracle ASMLib disks:                OK

19、

20、

21、/etc/init.d/oracleasm enable    --两个节点

22、Writing Oracle ASM library driver configuration: done

23、Initializing the Oracle ASMLib driver:                               done

24、Scanning the system for Oracle ASMLib disks:                         done

25、

26、创建 ASM 磁盘          --任何一个节点上执行即可

27、/etc/init.d/oracleasm createdisk CRS1 /dev/sdb1

28、/etc/init.d/oracleasm createdisk CRS2 /dev/sdc1

29、/etc/init.d/oracleasm createdisk CRS3 /dev/sdf1

30、/etc/init.d/oracleasm createdisk DATA1 /dev/sdd1

31、/etc/init.d/oracleasm createdisk DATA2 /dev/sde1

 

忽略:

32、/etc/init.d/oracleasm createdisk ARCH /dev/sdd5

33、/etc/init.d/oracleasm createdisk RECOVER /dev/sdd6

报错 :

[root@m1 ~]# /etc/init.d/oracleasm createdisk CRS1 /dev/sdb1

Marking disk "CRS1" as an ASM disk:                        [FAILED]

[root@m1 ~]# /etc/init.d/oracleasm createdisk CRS2 /dev/sdb1

Marking disk "CRS2" as an ASM disk:                        [FAILED]

[root@m1 ~]# /etc/init.d/oracleasm createdisk CRS3 /dev/sdb1

 

原因: 上次我新建了系统但是没有影响到存储 可以继续使用 也可以通过一下命令删除了新建:

/etc/init.d/oracleasm deletedisk  命令看不到 也删除不了 我就删除了硬盘新建了

 

我没有删除继续用了

[root@m1 ~]# /etc/init.d/oracleasm listdisks

CRS1

CRS2

CRS3

DATA1

DATA2

 

34、再检查下是否创建好    --两节点

35、/etc/init.d/oracleasm scandisks

36、/etc/init.d/oracleasm listdisks


4、CRS1

5、CRS2

6、CRS3

7、DATA1

8、DATA2

忽略

9、RECOVER

10、ARCH

 

 

1.确认在所有RAC节点上已经安装了必要的UDEV包

[root@rh2 ~]# rpm -qa|grep udev

udev-095-14.21.el5

2.通过scsi_id获取设备的块设备的唯一标识名,假设系统上已有LUN sdc-sdp

for i in b c d e f g ;

do

echo "sd$i" "`scsi_id -g -u -s /block/sd$i` ";

done

sdb 36000c29a89de45f738ab0cfa02b9c79e 

sdc 36000c295cfaf6508afb7635d7d212ea4 

sdd 36000c2968c0330c628277dd9d434b227 

sde 36000c29b24374ca1e1d72fb7cc4eeaeb 

sdf 36000c29e6a3d2a6368deeaf7d0cd971b 

sdg 36000c290212ef972a444f1036210823b 

以上列出于块设备名对应的唯一标识名

3.创建必要的UDEV配置文件,

首先切换到配置文件目录

[root@rh2 ~]# cd /etc/udev/rules.d

定义必要的规则配置文件

[root@rh2 rules.d]# touch 99-oracle-asmdevices.rules 

[root@rh2 rules.d]# cat 99-oracle-asmdevices.rules

KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -s %p", RESULT=="36000c29a89de45f738ab0cfa02b9c79e", NAME="ocr1", OWNER="grid", GROUP="asmadmin", MODE="0660"

KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -s %p", RESULT=="36000c295cfaf6508afb7635d7d212ea4", NAME="ocr2", OWNER="grid", GROUP="asmadmin", MODE="0660"

KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -s %p", RESULT=="36000c2968c0330c628277dd9d434b227", NAME="asm-disk1",  OWNER="grid",  GROUP="asmadmin", MODE="0660"

KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -s %p", RESULT=="36000c29b24374ca1e1d72fb7cc4eeaeb", NAME="asm-disk2",  OWNER="grid",  GROUP="asmadmin", MODE="0660"

KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -s %p", RESULT=="36000c29e6a3d2a6368deeaf7d0cd971b", NAME="asm-disk3",  OWNER="grid",  GROUP="asmadmin", MODE="0660"

KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -s %p", RESULT=="36000c290212ef972a444f1036210823b", NAME="asm-disk4",  OWNER="grid",  GROUP="asmadmin", MODE="0660"

 

Result 为/sbin/scsi_id -g -u -s %p的输出--Match the returned string of the last PROGRAM call. This key may be

used in any following rule after a PROGRAM call.

按顺序填入刚才获取的唯一标识名即可

 

OWNER为安装Grid Infrastructure的用户,在11gr2中一般为grid,GROUP为asmadmin

MODE采用0660即可

 

NAME为UDEV映射后的设备名,

建议为OCR和VOTE DISK创建独立的DISKGROUP,为了容易区分将该DISKGROUP专用的设备命名为ocr1..ocrn的形式

其余磁盘可以根据其实际用途或磁盘组名来命名

 

4.将该规则文件拷贝到其他节点上

[root@rh2 rules.d]# scp 99-oracle-asmdevices.rules Other_node:/etc/udev/rules.d

 

5.在所有节点上启动udev服务,或者重启服务器即可

 

[root@rh2 rules.d]# /sbin/udevcontrol reload_rules

[root@rh2 rules.d]# /sbin/start_udev

Starting udev:                                            [  OK  ]

 

6.检查设备是否到位

 

[root@rh2 rules.d]# cd /dev

[root@rh2 dev]# ls -l ocr*

brw-rw---- 1 grid asmadmin 8, 32 Jul 10 17:31 ocr1

brw-rw---- 1 grid asmadmin 8, 48 Jul 10 17:31 ocr2

[root@rh2 dev]# ls -l asm-disk*

[root@m1 dev]# ls -l asm-disk*

brw-rw---- 1 grid asmadmin 8, 48 Oct 18 13:47 asm-disk1

brw-rw---- 1 grid asmadmin 8, 64 Oct 18 13:47 asm-disk2

brw-rw---- 1 grid asmadmin 8, 80 Oct 18 13:47 asm-disk3

brw-rw---- 1 grid asmadmin 8, 96 Oct 18 13:47 asm-disk4

 

整死弄不出来 

1、 /home/grid/run/grid/runInstaller  ------不行发现不了磁盘  

2、 cd /home/grid/run/grid/

3、 ./runInstaller  --------不行 发现不了磁盘




 

解决:

新建了4块2G的硬件 

新建了2块200G硬件

建立了一个udev(上面有记录)---推荐

如果你想用ASMlib也行 上面有步骤 11gr2 不支持raw裸设备(最好不用) 

最重要的是 换了一个grid 933M的软件 

grid用户下(一定是grid用户)

1、mkdir aa

2、Ftp工具上传到aa目录下

3、unzip p10404530_112030_Linux-x86-64_3of7

4、cd grid/

5、./runInstaller 

6、好了

什么原因?

可能是配置文件。

 

任何软件要保存都必须先加压保存有些应用程序会修改操作系统下的所有文件



针对 这个问题  

 

首先挂载镜像 在虚拟机上(点击)

清单-----虚拟机-----客户机------安装VMware-tools

[root@m1 ~]# mount /dev/scd0 /mnt/cdrom/

mount: block device /dev/scd0 is write-protected, mounting read-only

[root@m1 ~]# ls /mnt/cdrom/

manifest.txt  VMwareTools-9.0.0-782409.tar.gz

[root@m1 ~]# umount /mnt/cdrom/

[root@m1 ~]# mount /dev/cdrom /mnt/cdrom/

mount: block device /dev/cdrom is write-protected, mounting read-only

[root@m1 ~]# ls /mnt/cdrom/

manifest.txt  VMwareTools-9.0.0-782409.tar.gz

 

cp VMwareTools-9.0.0-782409.tar.gz  /tmp

tar -zxpf /tmp/VMwareTools-9.0.0-782409.tar.gz -p是不打印的意思

/tmp/vmware-tools-distrib/vmware-install.pl   回车

 

安装好之后就发现网卡1 了

条件: 没有按照yum包

解决(没有提示就算了)

会提示gcc错误 (yum安装gcc)

清单-----虚拟机-----客户机------结束VMware-tools安装

挂载 光驱



关闭一下 虚拟机 重新登录 然后 挂载 OK 

 

vmware tools 安装好之后 还不能通过ifconfig 看到网卡1

kudzu --probe --class=network 

默认有eth0 MAC地址 没有eth1 MAC 没有关系
lsmod 命令查看模块

 

lspci 命令 

02:01.0 Ethernet controller: Intel Corporation 82545EM Gigabit Ethernet Controller (Copper) (rev 01)  原有的

02:02.0 Ethernet controller: VMware VMXNET Ethernet Controller (rev 10) 增强型那张

增强型 出错:

删除







2张网卡 设置好保存 之后 

[root@localhost ~]# /etc/init.d/network restart

Shutting down interface eth0:                              [  OK  ]

Shutting down interface eth1:                              [  OK  ]

Shutting down loopback interface:                          [  OK  ]

Bringing up loopback interface:                            [  OK  ]

Bringing up interface eth0:                                [  OK  ]

Bringing up interface eth1:                                [  OK  ]

现在可以在Xsell Secrut 链接了

但是 还是有问题 :找不到这个文件

/etc/udev/ruels.d/ 70-persistent-net.rules

这样也不影响Xshell windows的链接 

 

3、 配置时间同步服务器

 service ntpd stop

vim /etc/ntp.conf

添加 

server 172.16.10.253  邮件服务器 我们m1 m2 m3 上级:都是他的子服务器

 #chkconfig ntpd on
    启动ntpd:
  service ntpd start

4   /sbin/service ntpd stop

vim  /etc/sysconfig/ntpd  添加-x

# Drop root to id 'ntp:ntp' by default.

OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid"

# Set to 'yes' to sync hw clock after successful ntpdate

SYNC_HWCLOCK=no

# Additional options for ntpdate

NTPDATE_OPTIONS=""

启动服务

# /sbin/service ntp restart

 

3、 vim /etc/resolv.conf

4、 添加 

[root@m1 ~]# cat /etc/resolv.conf 

nameserver 172.16.14.1  添加本机的网关

search localdomain

 

5、 验证nobody 用户

 

 

--在所有节点上验证用户  nobody  存在: 

安装软件之前,执行以下过程,以验证在两个  Oracle RAC  节点上存在用户  nobody,要确定该用

户是否存在,输入以下命令: 

# id nobody 

uid=99(nobody) gid=99(nobody) groups=99(nobody) 

   

如果该命令显示了  nobody  用户的信息,则无需创建该用户。如果用户  nobody  不存在,则输入以下

命令进行创建: 

# /usr/sbin/useradd nobody 

 

2.2 禁用防火墙和 SELNUX(所有节点) 

 

关闭防火墙: 

service iptables status 

service iptables stop 

chkconfig iptables off 

chkconfig iptables --list 

 

 

设置/etc/selinux/config 文件,将 SELINUX 设置为 disabled。 

 

[root@rac1 ~]# cat /etc/selinux/config 

 

# This file controls the state of SELinux on the system. 

# SELINUX= can take one of these three values: 

#     enforcing - SELinux security policy is enforced. 

#     permissive - SELinux prints warnings instead of enforcing. 

#     disabled - No SELinux policy is loaded. 

SELINUX=disabled 

# SELINUXTYPE= can take one of these two values: 

#     targeted - Targeted processes are protected, 

#     mls - Multi Level Security protection. 

SELINUXTYPE=targeted 

 

2.3 配置时间同步(所有节点) 

 

方法一

在 11gR2 中,RAC 在安装的时候,时间同步可以用两种方式来实现: 

NTP 

CTSS。   

 

当安装程序发现  NTP  协议处于非活动状态时,安装集群时间同步服务将以活动模式自动进行安装并

通 过所 有节 点的时 间。 如果 发现配 置了   NTP,则以 观察 者模 式启动 集群 时间同 步服 务, Oracle Dave  高级 DBA  培训班内部文档  *  严禁外传                        Blog: http://blog.csdn.net/tianlesoftware                                    

Clusterware  不会在集群中进行活动的时间同步。 

Oracle  集群时间同步服务  (ctssd)  旨在为那些  Oracle RAC  数据库无法访问  NTP  服务的组

织提供服务。 

这里我们使用 CTSS. 

 

--配置 CTSS 

使用集群时间同步服务在集群中提供同步服务,需要卸载网络时间协议  (NTP)  及其配置。 

要停用  NTP  服务,必须停止当前的  ntpd  服务,从初始化序列中禁用该服务,并删

除  ntp.conf  文件。 

要在 Linux  上完成这些步骤,以  root  用户身份在两个  Oracle RAC  节点上运行以下命令: 

 

[root@rac1 ~]# /sbin/service ntpd stop 

Shutting down ntpd:                                        [  OK  ] 

[root@rac1 ~]# chkconfig ntpd off 

[root@rac1 ~]# mv /etc/ntp.conf /etc/ntp.conf.original 

[root@rac1 ~]# chkconfig ntpd --list 

ntpd            0:off   1:off   2:off   3:off   4:off   5:off   6:off 

 

[root@rac2 ~]# /sbin/service ntpd stop 

Shutting down ntpd:                                        [  OK  ] 

[root@rac2 ~]# chkconfig ntpd off 

[root@rac2 ~]# mv /etc/ntp.conf /etc/ntp.conf.original 

[root@rac2 ~]# chkconfig ntpd --list 

ntpd            0:off   1:off   2:off   3:off   4:off   5:off   6:off 

 

还要删除以下文件: 

rm /var/run/ntpd.pid 

此文件保存了  NTP  后台程序的  pid。 

 

   

在安装后,要确认  ctssd  处于活动状态,用 grid 所有者输入以下命令: 

[grid@racnode1 ~]$ crsctl check ctss 

CRS-4701: The Cluster Time Synchronization Service is in Active mode. 

CRS-4702: Offset (in msec): 0 

 

 

 

 

4、配置SSH等效性

分别以grid  oracle 建立2次

grid 用户

 su  - grid

m1:/home/grid$  ssh-keygen 

Generating public/private rsa key pair.

Enter file in which to save the key (/home/grid/.ssh/id_rsa): 

Created directory '/home/grid/.ssh'.

Enter passphrase (empty for no passphrase): 

Enter same passphrase again: 

Your identification has been saved in /home/grid/.ssh/id_rsa.

Your public key has been saved in /home/grid/.ssh/id_rsa.pub.

The key fingerprint is:

60:9b:fe:65:82:85:44:8d:20:a3:a5:16:54:21:11:72 grid@m1

m1:/home/grid$

 

公网:

 

m1:/home/grid$  echo ~

/home/grid

公钥 

下面讲公钥拷贝到3台机器: m1 m2 m3 

m1:/home/grid$ ssh-copy-id -i /home/grid/.ssh/id_rsa.pub m1

26  ID

The authenticity of host 'm1 (172.16.15.101)' can't be established.

RSA key fingerprint is 94:cd:c2:8b:08:75:c4:e0:b6:9a:be:93:1b:7e:68:51.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'm1,172.16.15.101' (RSA) to the list of known hosts.

grid@m1's password: 

Now try logging into the machine, with "ssh 'm1'", and check in:

  .ssh/authorized_keys    -------------

to make sure we haven't added extra keys that you weren't expecting. 

 -----------------------------------说明攻了了

 

m1:/home/grid$ssh-copy-id -i /home/grid/.ssh/id_rsa.pub m2

26

The authenticity of host 'm2 (172.16.15.102)' can't be established.

RSA key fingerprint is 94:cd:c2:8b:08:75:c4:e0:b6:9a:be:93:1b:7e:68:51.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'm2,172.16.15.102' (RSA) to the list of known hosts.

grid@m2's password: 

Now try logging into the machine, with "ssh 'm2'", and check in:

.ssh/authorized_keys

to make sure we haven't added extra keys that you weren't expecting.

 

m1:/home/grid$ssh-copy-id -i /home/grid/.ssh/id_rsa.pub m3

26

The authenticity of host 'm3 (172.16.15.103)' can't be established.

RSA key fingerprint is 94:cd:c2:8b:08:75:c4:e0:b6:9a:be:93:1b:7e:68:51.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'm3,172.16.15.103' (RSA) to the list of known hosts.

grid@m3's password: 

Now try logging into the machine, with "ssh 'm3'", and check in:

.ssh/authorized_keys

to make sure we haven't added extra keys that you weren't expecting.

 

私网

 

m1:/home/grid$ssh-copy-id -i /home/grid/.ssh/id_rsa.pub m1-priv

26

The authenticity of host 'm1-priv (10.11.11.1)' can't be established.

RSA key fingerprint is 94:cd:c2:8b:08:75:c4:e0:b6:9a:be:93:1b:7e:68:51.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'm1-priv,10.11.11.1' (RSA) to the list of known hosts.

Now try logging into the machine, with "ssh 'm1-priv'", and check in:

.ssh/authorized_keys

to make sure we haven't added extra keys that you weren't expecting.

 

m1:/home/grid$ssh-copy-id -i /home/grid/.ssh/id_rsa.pub m2-priv

26

The authenticity of host 'm2-priv (10.11.11.2)' can't be established.

RSA key fingerprint is 94:cd:c2:8b:08:75:c4:e0:b6:9a:be:93:1b:7e:68:51.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'm2-priv,10.11.11.2' (RSA) to the list of known hosts.

Now try logging into the machine, with "ssh 'm2-priv'", and check in:

 

  .ssh/authorized_keys

 

to make sure we haven't added extra keys that you weren't expecting.

 

m1:/home/grid$ssh-copy-id -i /home/grid/.ssh/id_rsa.pub m3-priv

26

The authenticity of host 'm3-priv (10.11.11.3)' can't be established.

RSA key fingerprint is 94:cd:c2:8b:08:75:c4:e0:b6:9a:be:93:1b:7e:68:51.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'm3-priv,10.11.11.3' (RSA) to the list of known hosts.

Now try logging into the machine, with "ssh 'm3-priv'", and check in:

.ssh/authorized_keys

to make sure we haven't added extra keys that you weren't expecting.

 

测试

m1:/home/grid$ssh  m1 date;ssh  m2 date; ssh  m3 date

Thu Oct 10 11:50:50 CST 2013

Thu Oct 10 11:50:50 CST 2013

Thu Oct 10 11:50:50 CST 2013

m1:/home/grid$ssh  m1-priv date;ssh  m2-priv date; ssh  m3-priv date

Thu Oct 10 11:57:40 CST 2013

Thu Oct 10 11:57:40 CST 2013

Thu Oct 10 11:57:40 CST 2013

 

这个不能拷贝只能 每台都建立

 

oracle 用户  我就粘贴了 一样的。

 

这样还没有配置完美

1)SSH会有一个LoginGraceTime的概念,是指ssh登录到对端,不做任何操作的时间,如果超过该时间,则自动断开ssh连接。那么在oracle安装的过程中,需要把该参数设置为“0”,也就是说,不让该功能生效。以免在安装的过程中出错。

用root修改/etc/ssh/sshd_config文件,找到LoginGraceTime字样:

LoginGraceTime 0

#PermitRootLogin yes

#StrictModes yes

将前面的“#”去掉,后面的数字设置为“0”即可。

 

 

安装Grid软件:

1、 准备 软件包

oracle官网上有下载

p10404530_112030_Linux-x86-64_1of7

p10404530_112030_Linux-x86-64_2of7

p10404530_112030_Linux-x86-64_3of7  -----grid软件

FTP工具上传到一台主机上就可以了。我上传到m1

上传grid 1 分 oracle软件2分

M1 上

mkdir /tmp/soft

unzip /tmp/soft/ p10404530_112030_Linux-x86-64_3of7

安装cvuqdisk包并验证

在两个 Oracle RAC 节点上安装操作系统程序包 cvuqdisk。如果没有 

cvuqdisk,集群验证实用程序就无法发现共享磁盘,当运行(手动运行或在 Oracle Grid 

Infrastructure 安装结束时自动运行)集群验证实用程序时,您会收到这样的错误消息:“Package 

cvuqdisk not installed”。使用适用于您的硬件体系结构(例如,x86_64 或 i386)的 cvuqdisk  RPM。

 

检查这个包在不:

m1:/home/grid$ls /tmp/soft/grid/rpm/cvuqdisk-1.0.9-1.rpm 

/tmp/soft/grid/rpm/cvuqdisk-1.0.9-1.rpm

 

需要将这个包 拷贝到m2 m3上因为是以便发现磁盘。

看见没有不能使用grid用户安装rpm 

 

m1:/home/grid$rpm -ivh /tmp/soft/grid/rpm/cvuqdisk-1.0.9-1.rpm 

error: can't create transaction lock on /var/lib/rpm/__db.000

root用户

需要拷贝这个

m1:/home/grid$scp  /tmp/soft/grid/rpm/cvuqdisk-1.0.9-1.rpm m2:/tmp/

cvuqdisk-1.0.9-1.rpm                                          100% 8551     8.4KB/s   00:00    

m1:/home/grid$scp  /tmp/soft/grid/rpm/cvuqdisk-1.0.9-1.rpm m3:/tmp/

cvuqdisk-1.0.9-1.rpm                                          100% 8551     8.4KB/s   00:00    

m1:/home/grid$

m2 m3 上都需要(一定要安装啊)

[root@m3 ~]# rpm -ivh /tmp/cvuqdisk-1.0.9-1.rpm 

Preparing...                ########################################### [100%]

Using default group oinstall to install package

   1:cvuqdisk               ########################################### [100%]

 

实行安装检查(非常重要)

我们这里只有DNS没有通过其他的一定要通过。

/tmp/soft/grid/runcluvfy.sh stage –list  查看检查的语法

这句话很重要 建议 记录日志

m1:/home/grid$/tmp/soft/grid/runcluvfy.sh stage -pre crsinst -n m1,m2,m3 -fixup –verbose

 

环境检查报错

ERROR: 

The location "/tmp/CVU_11.2.0.3.0_grid/" is owned by another user on nodes:

m3,m2,m1

Please choose a different work area using CV_DESTLOC

Verification cannot proceed

 

Pre-check for cluster services setup was unsuccessful on all the nodes. 

m1:/tmp/soft/grid$ll

解决: 

第一种

以grid用户解压 但是 我没有执行成功

第二种 

[root@m1 soft]# ll -l /tmp/soft/ 

total 3401632

drwxr-xr-x 8 root root       4096 Sep 22  2011 grid

root用户授权

chown  -R oracle.oinstall /tmp/soft/  

 

[root@m1 ~]# ll -l /tmp/

total 66192

drwxr-xr-x 3    500      500     4096 Sep 30 06:23 CVU_11.2.0.3.0_grid

drwx------ 2 root   root         4096 Oct 10 15:25 gconfd-root

drwxr-xr-x 2 grid   oinstall     4096 Oct 14 10:18 hsperfdata_grid

drwx------ 2 root   root         4096 Sep 30 02:41 keyring-Q5slL2

drwxr-xr-x 2    500      500     4096 Sep 30 06:23 logs

srwxr-xr-x 1 root   root            0 Oct  9 16:57 mapping-root

-rw-r--r-- 1 root   root        14176 Oct  9 05:49 oracleasmlib-2.0.4-1.el5.x86_64.rpm

drwxr-xr-x 3 oracle oinstall     4096 Oct 14 09:45 soft

-rw-r--r-- 1 root   root      1849173 Oct  9 05:50 unixODBC-2.3.2.tar.gz

drwx------ 2 root   root         4096 Sep 30 02:41 virtual-root.aoRYQn

drwxr-xr-x 2 root   root         4096 Oct  9 05:55 vmware-config0

drwx------ 2 root   root         4096 Oct 13 19:11 vmware-root

-r--r--r-- 1 root   root     65792741 Oct  9 01:36 VMwareTools-9.0.0-782409.tar.gz

drwxr-xr-x 7 root   root         4096 Jul 15  2012 vmware-tools-distrib

[root@m1 ~]#  chown -R grid.oinstall /tmp/CVU_11.2.0.3.0_grid

chown -R grid.oinstall /tmp/logs

 

看见上面的500 没有 chown 改成 grid.oinstall 就可以了

哈哈 有出错了 这个机器上m1 上检查通过 m2 m3 同样要改哈 

[root@m2 ~]# chown -R grid.oinstall /tmp/CVU_11.2.0.3.0_grid/ 

[root@m2 ~]# chown -R grid.oinstall /tmp/logs/

再次执行环境检查

 

错误:

ERROR: 

以下节点上的位置 "/tmp/CVU_11.2.0.3.0_grid/" 为其他用户所拥有:

m3,m2

 

[root@m2 ~]# ll /tmp/

total 64384

drwxr-xr-x 3 oracle oinstall     4096 Sep 30 06:23 CVU_11.2.0.3.0_grid

-rwxr-xr-x 1 grid   oinstall     8551 Oct 14 10:05 cvuqdisk-1.0.9-1.rpm

drwx------ 2 root   root         4096 Oct 11 09:16 gconfd-root

drwx------ 2 root   root         4096 Sep 30 02:41 keyring-Q5slL2

drwxr-xr-x 2 oracle oinstall     4096 Sep 30 06:23 logs

srwxr-xr-x 1 root   root            0 Oct  9 08:19 mapping-root

-rw-r--r-- 1 root   root        14176 Oct 10 02:04 oracleasmlib-2.0.4-1.el5.x86_64.rpm

srw------- 1 root   root            0 Oct  9 08:19 scim-panel-socket:0-root

drwx------ 2 root   root         4096 Sep 30 02:41 virtual-root.aoRYQn

drwxr-xr-x 2 root   root         4096 Oct 10 02:10 vmware-config0

drwx------ 2 root   root         4096 Oct 11 09:26 vmware-root

-r--r--r-- 1 root   root     65792741 Oct 10 01:49 VMwareTools-9.0.0-782409.tar.gz

drwxr-xr-x 7 root   root         4096 Jul 15  2012 vmware-tools-distrib

[root@m2 ~]#

 

哈哈 环境检查的强大了吧 呵呵

logout

[root@m1 soft]#  chown -R grid.oinstall /tmp/CVU_11.2.0.3.0_grid/ 

[root@m1 soft]#  chown -R grid.oinstall /tmp/soft/ 

[root@m1 soft]#  chown -R grid.oinstall /tmp/logs

[root@m1 soft]# ll /tmp/logs/

 

环境检查文件

[root@m1 soft]# LANG=zh_CN

[root@m1 soft]# su - grid

m1:/home/grid$LANG=zh_CN

m1:/home/grid$/tmp/soft/grid/runcluvfy.sh stage -pre crsinst -n m1,m2,m3 -fixup -verbose

 

执行 集群服务设置 的预检查

 

正在检查节点的可访问性...

 

检查: 节点 "m1" 的节点可访问性

  目标节点                                  是否可访问?                  

  ------------------------------------  ------------------------

  m3                                    是                       

  m2                                    是                       

  m1                                    是                       

结果:节点 "m1" 的节点可访问性检查已通过

 

 

正在检查等同用户...

 

检查: 用户 "grid" 的等同用户

  节点名                                   状态                      

  ------------------------------------  ------------------------

  m3                                    通过                      

  m2                                    通过                      

  m1                                    通过                      

结果:用户 "grid" 的等同用户检查已通过

 

正在检查节点连接性...

 

正在检查主机配置文件...

  节点名                                   状态                      

  ------------------------------------  ------------------------

  m3                                    通过                      

  m2                                    通过                      

  m1                                    通过                      

 

主机配置文件的验证成功

 

 

节点 "m3" 的接口信息

 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU   

 ------ --------------- --------------- --------------- --------------- ----------------- ------

 eth0   172.16.15.103   172.16.14.0     0.0.0.0         172.16.14.1     00:50:56:A8:5F:82 1500  

 eth1   10.11.11.3      10.11.11.0      0.0.0.0         172.16.14.1     00:50:56:A8:37:C7 1500  

 

 

节点 "m2" 的接口信息

 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU   

 ------ --------------- --------------- --------------- --------------- ----------------- ------

 eth0   172.16.15.102   172.16.14.0     0.0.0.0         172.16.14.1     00:50:56:A8:41:9D 1500  

 eth1   10.11.11.2      10.11.11.0      0.0.0.0         172.16.14.1     00:50:56:A8:15:18 1500  

 

 

节点 "m1" 的接口信息

 名称     IP 地址           子网              网关              默认网关            HW 地址             MTU   

 ------ --------------- --------------- --------------- --------------- ----------------- ------

 eth1   10.11.11.1      10.11.11.0      0.0.0.0         172.16.14.1     00:50:56:A8:46:F8 1500  

 eth0   172.16.15.101   172.16.14.0     0.0.0.0         172.16.14.1     00:50:56:A8:7F:AC 1500  

 

 

检查: 子网 "172.16.14.0" 的节点连接性

  源                               目标                              是否已连接?          

  ------------------------------  ------------------------------  ----------------


m3[172.16.15.103]               m2[172.16.15.102]               是               

  m3[172.16.15.103]               m1[172.16.15.101]               是               

  m2[172.16.15.102]               m1[172.16.15.101]               是               

结果:含有节点 m3,m2,m1 的子网 "172.16.14.0" 的节点连接性检查已通过

 

 

检查: 子网 "172.16.14.0" 的 TCP 连接性

  源                               目标                              是否已连接?          

  ------------------------------  ------------------------------  ----------------

  m1:172.16.15.101                m3:172.16.15.103                通过              

  m1:172.16.15.101                m2:172.16.15.102                通过              

结果:子网 "172.16.14.0" 的 TCP 连接性检查通过

 

 

检查: 子网 "10.11.11.0" 的节点连接性

  源                               目标                              是否已连接?          

  ------------------------------  ------------------------------  ----------------

  m3[10.11.11.3]                  m2[10.11.11.2]                  是               

  m3[10.11.11.3]                  m1[10.11.11.1]                  是               

  m2[10.11.11.2]                  m1[10.11.11.1]                  是               

结果:含有节点 m3,m2,m1 的子网 "10.11.11.0" 的节点连接性检查已通过

 

 

检查: 子网 "10.11.11.0" 的 TCP 连接性

  源                               目标                              是否已连接?          

  ------------------------------  ------------------------------  ----------------

  m1:10.11.11.1                   m3:10.11.11.3                   通过              

  m1:10.11.11.1                   m2:10.11.11.2                   通过              

结果:子网 "10.11.11.0" 的 TCP 连接性检查通过

 

 

在子网 "172.16.14.0" 上找到的很可能是用于 VIP 的候选接口的接口为:

m3 eth0:172.16.15.103

m2 eth0:172.16.15.102

m1 eth0:172.16.15.101

 

在子网 "10.11.11.0" 上找到的很可能是用于专用互连的候选接口的接口为:

m3 eth1:10.11.11.3

m2 eth1:10.11.11.2

m1 eth1:10.11.11.1

正在检查子网掩码一致性...

子网 "172.16.14.0" 的子网掩码一致性检查已通过。

子网 "10.11.11.0" 的子网掩码一致性检查已通过。

子网掩码一致性检查已通过。

 

结果:节点连接性检查已通过

 

正在检查多点传送通信...

 

正在检查子网 "172.16.14.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...

子网 "172.16.14.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

 

正在检查子网 "10.11.11.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信...

子网 "10.11.11.0" 是否能够与多点传送组 "230.0.1.0" 进行多点传送通信的检查已通过。

 

多点传送通信检查已通过。

 

检查 ASMLib 配置。

  节点名                                   状态                      

  ------------------------------------  ------------------------

  m3                                    通过                      

  m2                                    通过                      

  m1                                    通过                      

结果:ASMLib 配置检查通过。

 

检查: 内存总量 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            7.814GB (8193556.0KB)     1.5GB (1572864.0KB)       通过        

  m2            7.814GB (8193556.0KB)     1.5GB (1572864.0KB)       通过        

  m1            7.814GB (8193556.0KB)     1.5GB (1572864.0KB)       通过        

结果:内存总量 检查已通过

 

检查: 可用内存 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            7.5255GB (7891008.0KB)    50MB (51200.0KB)          通过        

  m2            7.5225GB (7887912.0KB)    50MB (51200.0KB)          通过        

  m1            7.2357GB (7587180.0KB)    50MB (51200.0KB)          通过        

结果:可用内存 检查已通过

 

检查: 交换空间 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            9.75GB (1.0223612E7KB)    7.814GB (8193556.0KB)     通过        

  m2            9.75GB (1.0223612E7KB)    7.814GB (8193556.0KB)     通过        

  m1            9.75GB (1.0223612E7KB)    7.814GB (8193556.0KB)     通过        

结果:交换空间 检查已通过

 

检查: "m3:/tmp" 的 空闲磁盘空间 

  路径                节点名           装载点           可用            必需            状态          

  ----------------  ------------  ------------  ------------  ------------  ------------

  /tmp              m3            /             57.6543GB     1GB           通过          

结果:"m3:/tmp" 的 空闲磁盘空间 检查已通过

 

检查: "m2:/tmp" 的 空闲磁盘空间 

  路径                节点名           装载点           可用            必需            状态          

  ----------------  ------------  ------------  ------------  ------------  ------------

  /tmp              m2            /             57.6543GB     1GB           通过          

结果:"m2:/tmp" 的 空闲磁盘空间 检查已通过

 

检查: "m1:/tmp" 的 空闲磁盘空间 

  路径                节点名           装载点           可用            必需            状态          

  ----------------  ------------  ------------  ------------  ------------  ------------

  /tmp              m1            /             53.1924GB     1GB           通过          

结果:"m1:/tmp" 的 空闲磁盘空间 检查已通过

 

检查: "grid" 的 用户存在性 

  节点名           状态                        注释                      

  ------------  ------------------------  ------------------------

  m3            通过                        存在(502)                 

  m2            通过                        存在(502)                 

  m1            通过                        存在(502)                 

 

检查 UID 值为 502 的多个用户

结果:对 UID 值为 502 的多个用户进行的检查已通过

结果:"grid" 的 用户存在性 检查已通过

 

检查: "oinstall" 的 组存在性 

  节点名           状态                        注释                      

  ------------  ------------------------  ------------------------

  m3            通过                        存在                      

  m2            通过                        存在                      

  m1            通过                        存在                      

结果:"oinstall" 的 组存在性 检查已通过

 

检查: "dba" 的 组存在性 

  节点名           状态                        注释                      

  ------------  ------------------------  ------------------------

  m3            通过                        存在                      

  m2            通过                        存在                      

  m1            通过                        存在                      

结果:"dba" 的 组存在性 检查已通过

 

检查: 组 "oinstall" 中用户 "grid" 的成员资格 [作为 主]

  节点名               用户存在          组存在           组中的用户         主             状态          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                是             是             是             是             通过          

  m2                是             是             是             是             通过          

  m1                是             是             是             是             通过          

结果:组 "oinstall" 中用户 "grid" 的成员资格检查 [作为 主] 已通过

 

检查: 组 "dba" 中用户 "grid" 的成员资格

  节点名               用户存在          组存在           组中的用户         状态              

  ----------------  ------------  ------------  ------------  ----------------

  m3                是             是             是             通过              

  m2                是             是             是             通过              

  m1                是             是             是             通过              

结果:组 "dba" 中用户 "grid" 的成员资格检查已通过

 

检查: 运行级别 

  节点名           运行级别                      必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            5                         3,5                       通过        

  m2            5                         3,5                       通过        

  m1            5                         3,5                       通过        

结果:运行级别 检查已通过

 

检查: "打开的文件描述符的最大数" 的 硬性限制 

  节点名               类型            可用            必需            状态              

  ----------------  ------------  ------------  ------------  ----------------

  m3                硬性            262144        65536         通过              

  m2                硬性            262144        65536         通过              

  m1                硬性            262144        65536         通过              

结果:"打开的文件描述符的最大数" 的 硬性限制 检查已通过

 

检查: "打开的文件描述符的最大数" 的 软性限制 

  节点名               类型            可用            必需            状态              

  ----------------  ------------  ------------  ------------  ----------------

  m3                软性            4096          1024          通过              

  m2                软性            4096          1024          通过              

  m1                软性            4096          1024          通过              

结果:"打开的文件描述符的最大数" 的 软性限制 检查已通过

 

检查: "最大用户进程数" 的 硬性限制 

  节点名               类型            可用            必需            状态              

  ----------------  ------------  ------------  ------------  ----------------

  m3                硬性            65536         16384         通过              

  m2                硬性            65536         16384         通过              

  m1                硬性            65536         16384         通过              

结果:"最大用户进程数" 的 硬性限制 检查已通过

 

检查: "最大用户进程数" 的 软性限制 

  节点名               类型            可用            必需            状态              

  ----------------  ------------  ------------  ------------  ----------------

  m3                软性            8188          2047          通过              

  m2                软性            8188          2047          通过              

  m1                软性            8188          2047          通过              

结果:"最大用户进程数" 的 软性限制 检查已通过

 

检查: 系统体系结构 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            x86_64                    x86_64                    通过        

  m2            x86_64                    x86_64                    通过        

  m1            x86_64                    x86_64                    通过        

结果:系统体系结构 检查已通过

 

检查: 内核版本 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            2.6.39-300.26.1.el5uek    2.6.18                    通过        

  m2            2.6.39-300.26.1.el5uek    2.6.18                    通过        

  m1            2.6.39-300.26.1.el5uek    2.6.18                    通过        

结果:内核版本 检查已通过

 

检查: "semmsl" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                1250          1250          250           通过              

  m2                1250          1250          250           通过              

  m1                1250          1250          250           通过              

结果:"semmsl" 的 内核参数 检查已通过

 

检查: "semmns" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                640000        640000        32000         通过              

  m2                640000        640000        32000         通过              

  m1                640000        640000        32000         通过              

结果:"semmns" 的 内核参数 检查已通过

 

检查: "semopm" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                1250          1250          100           通过              

  m2                1250          1250          100           通过              

  m1                1250          1250          100           通过              

结果:"semopm" 的 内核参数 检查已通过

 

检查: "semmni" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                512           512           128           通过              

  m2                512           512           128           通过              

  m1                512           512           128           通过              

结果:"semmni" 的 内核参数 检查已通过

 

检查: "shmmax" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                68719476736   68719476736   4195100672    通过              

  m2                68719476736   68719476736   4195100672    通过              

  m1                68719476736   68719476736   4195100672    通过              

结果:"shmmax" 的 内核参数 检查已通过

 

检查: "shmmni" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                4096          4096          4096          通过              

  m2                4096          4096          4096          通过              

  m1                4096          4096          4096          通过              

结果:"shmmni" 的 内核参数 检查已通过

 

检查: "shmall" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                4294967296    4294967296    2097152       通过              

  m2                4294967296    4294967296    2097152       通过              

  m1                4294967296    4294967296    2097152       通过              

结果:"shmall" 的 内核参数 检查已通过

 

检查: "file-max" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                6815744       6815744       6815744       通过              

  m2                6815744       6815744       6815744       通过              

  m1                6815744       6815744       6815744       通过              

结果:"file-max" 的 内核参数 检查已通过

 

检查: "ip_local_port_range" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                between 9000.0 & 65500.0  between 9000.0 & 65500.0  between 9000.0 & 65500.0  通过              

  m2                between 9000.0 & 65500.0  between 9000.0 & 65500.0  between 9000.0 & 65500.0  通过              

  m1                between 9000.0 & 65500.0  between 9000.0 & 65500.0  between 9000.0 & 65500.0  通过              

结果:"ip_local_port_range" 的 内核参数 检查已通过

 

检查: "rmem_default" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                4194304       4194304       262144        通过              

  m2                4194304       4194304       262144        通过              

  m1                4194304       4194304       262144        通过              

结果:"rmem_default" 的 内核参数 检查已通过

 

检查: "rmem_max" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                4194304       4194304       4194304       通过              

  m2                4194304       4194304       4194304       通过

m1                4194304       4194304       4194304       通过              

结果:"rmem_max" 的 内核参数 检查已通过

 

检查: "wmem_default" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                4194304       4194304       262144        通过              

  m2                4194304       4194304       262144        通过              

  m1                4194304       4194304       262144        通过              

结果:"wmem_default" 的 内核参数 检查已通过

 

检查: "wmem_max" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                4194304       4194304       1048576       通过              

  m2                4194304       4194304       1048576       通过              

  m1                4194304       4194304       1048576       通过              

结果:"wmem_max" 的 内核参数 检查已通过

 

检查: "aio-max-nr" 的 内核参数 

  节点名               当前值           已配置           必需            状态            注释          

  ----------------  ------------  ------------  ------------  ------------  ------------

  m3                6815744       6815744       1048576       通过              

  m2                6815744       6815744       1048576       通过              

  m1                6815744       6815744       1048576       通过              

结果:"aio-max-nr" 的 内核参数 检查已通过

 

检查: "make" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            make-3.81-3.el5           make-3.81                 通过        

  m2            make-3.81-3.el5           make-3.81                 通过        

  m1            make-3.81-3.el5           make-3.81                 通过        

结果:"make" 的 包存在性 检查已通过

 

检查: "binutils" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            binutils-2.17.50.0.6-20.el5_8.3  binutils-2.17.50.0.6      通过        

  m2            binutils-2.17.50.0.6-20.el5_8.3  binutils-2.17.50.0.6      通过        

  m1            binutils-2.17.50.0.6-20.el5_8.3  binutils-2.17.50.0.6      通过        

结果:"binutils" 的 包存在性 检查已通过

 

检查: "gcc(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            gcc(x86_64)-4.1.2-54.el5  gcc(x86_64)-4.1.2         通过        

  m2            gcc(x86_64)-4.1.2-54.el5  gcc(x86_64)-4.1.2         通过        

  m1            gcc(x86_64)-4.1.2-54.el5  gcc(x86_64)-4.1.2         通过        

结果:"gcc(x86_64)" 的 包存在性 检查已通过

 

检查: "libaio(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            libaio(x86_64)-0.3.106-5  libaio(x86_64)-0.3.106    通过        

  m2            libaio(x86_64)-0.3.106-5  libaio(x86_64)-0.3.106    通过        

  m1            libaio(x86_64)-0.3.106-5  libaio(x86_64)-0.3.106    通过        

结果:"libaio(x86_64)" 的 包存在性 检查已通过

 

检查: "glibc(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            glibc(x86_64)-2.5-107     glibc(x86_64)-2.5-24      通过        

  m2            glibc(x86_64)-2.5-107     glibc(x86_64)-2.5-24      通过        

  m1            glibc(x86_64)-2.5-107     glibc(x86_64)-2.5-24      通过        

结果:"glibc(x86_64)" 的 包存在性 检查已通过

 

检查: "compat-libstdc++-33(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            compat-libstdc++-33(x86_64)-3.2.3-61  compat-libstdc++-33(x86_64)-3.2.3  通过        

  m2            compat-libstdc++-33(x86_64)-3.2.3-61  compat-libstdc++-33(x86_64)-3.2.3  通过        

  m1            compat-libstdc++-33(x86_64)-3.2.3-61  compat-libstdc++-33(x86_64)-3.2.3  通过        

结果:"compat-libstdc++-33(x86_64)" 的 包存在性 检查已通过

 

检查: "elfutils-libelf(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            elfutils-libelf(x86_64)-0.137-3.el5  elfutils-libelf(x86_64)-0.125  通过        

  m2            elfutils-libelf(x86_64)-0.137-3.el5  elfutils-libelf(x86_64)-0.125  通过        

  m1            elfutils-libelf(x86_64)-0.137-3.el5  elfutils-libelf(x86_64)-0.125  通过        

结果:"elfutils-libelf(x86_64)" 的 包存在性 检查已通过

 

检查: "elfutils-libelf-devel" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            elfutils-libelf-devel-0.137-3.el5  elfutils-libelf-devel-0.125  通过        

  m2            elfutils-libelf-devel-0.137-3.el5  elfutils-libelf-devel-0.125  通过        

  m1            elfutils-libelf-devel-0.137-3.el5  elfutils-libelf-devel-0.125  通过        

 

WARNING: 

PRVF-7584 : 在节点 m3 上找到多个版本的程序包 "elfutils-libelf-devel": elfutils-libelf-devel(x86_64)-0.137-3.el5,elfutils-libelf-devel(i386)-0.137-3.el5

 

WARNING: 

PRVF-7584 : 在节点 m2 上找到多个版本的程序包 "elfutils-libelf-devel": elfutils-libelf-devel(x86_64)-0.137-3.el5,elfutils-libelf-devel(i386)-0.137-3.el5

 

WARNING: 

PRVF-7584 : 在节点 m1 上找到多个版本的程序包 "elfutils-libelf-devel": elfutils-libelf-devel(x86_64)-0.137-3.el5,elfutils-libelf-devel(i386)-0.137-3.el5

结果:"elfutils-libelf-devel" 的 包存在性 检查已通过

 

检查: "glibc-common" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            glibc-common-2.5-107      glibc-common-2.5          通过        

  m2            glibc-common-2.5-107      glibc-common-2.5          通过        

  m1            glibc-common-2.5-107      glibc-common-2.5          通过        

结果:"glibc-common" 的 包存在性 检查已通过

 

检查: "glibc-devel(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            glibc-devel(x86_64)-2.5-107  glibc-devel(x86_64)-2.5   通过        

  m2            glibc-devel(x86_64)-2.5-107  glibc-devel(x86_64)-2.5   通过        

  m1            glibc-devel(x86_64)-2.5-107  glibc-devel(x86_64)-2.5   通过        

结果:"glibc-devel(x86_64)" 的 包存在性 检查已通过

 

检查: "glibc-headers" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            glibc-headers-2.5-107     glibc-headers-2.5         通过        

  m2            glibc-headers-2.5-107     glibc-headers-2.5         通过        

  m1            glibc-headers-2.5-107     glibc-headers-2.5         通过        

结果:"glibc-headers" 的 包存在性 检查已通过

 

检查: "gcc-c++(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            gcc-c++(x86_64)-4.1.2-54.el5  gcc-c++(x86_64)-4.1.2     通过        

  m2            gcc-c++(x86_64)-4.1.2-54.el5  gcc-c++(x86_64)-4.1.2     通过        

  m1            gcc-c++(x86_64)-4.1.2-54.el5  gcc-c++(x86_64)-4.1.2     通过        

结果:"gcc-c++(x86_64)" 的 包存在性 检查已通过

 

检查: "libaio-devel(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            libaio-devel(x86_64)-0.3.106-5  libaio-devel(x86_64)-0.3.106  通过        

  m2            libaio-devel(x86_64)-0.3.106-5  libaio-devel(x86_64)-0.3.106  通过        

  m1            libaio-devel(x86_64)-0.3.106-5  libaio-devel(x86_64)-0.3.106  通过        

结果:"libaio-devel(x86_64)" 的 包存在性 检查已通过

 

检查: "libgcc(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            libgcc(x86_64)-4.1.2-54.el5  libgcc(x86_64)-4.1.2      通过        

  m2            libgcc(x86_64)-4.1.2-54.el5  libgcc(x86_64)-4.1.2      通过        

  m1            libgcc(x86_64)-4.1.2-54.el5  libgcc(x86_64)-4.1.2      通过        

结果:"libgcc(x86_64)" 的 包存在性 检查已通过

 

检查: "libstdc++(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            libstdc++(x86_64)-4.1.2-54.el5  libstdc++(x86_64)-4.1.2   通过        

  m2            libstdc++(x86_64)-4.1.2-54.el5  libstdc++(x86_64)-4.1.2   通过        

  m1            libstdc++(x86_64)-4.1.2-54.el5  libstdc++(x86_64)-4.1.2   通过        

结果:"libstdc++(x86_64)" 的 包存在性 检查已通过

 

检查: "libstdc++-devel(x86_64)" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            libstdc++-devel(x86_64)-4.1.2-54.el5  libstdc++-devel(x86_64)-4.1.2  通过        

  m2            libstdc++-devel(x86_64)-4.1.2-54.el5  libstdc++-devel(x86_64)-4.1.2  通过        

  m1            libstdc++-devel(x86_64)-4.1.2-54.el5  libstdc++-devel(x86_64)-4.1.2  通过        

结果:"libstdc++-devel(x86_64)" 的 包存在性 检查已通过

 

检查: "sysstat" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            sysstat-7.0.2-12.0.1.el5  sysstat-7.0.2             通过        

  m2            sysstat-7.0.2-12.0.1.el5  sysstat-7.0.2             通过        

  m1            sysstat-7.0.2-12.0.1.el5  sysstat-7.0.2             通过        

结果:"sysstat" 的 包存在性 检查已通过

 

检查: "ksh" 的 包存在性 

  节点名           可用                        必需                        状态        

  ------------  ------------------------  ------------------------  ----------

  m3            ksh-20100621-12.el5       ksh-20060214              通过        

  m2            ksh-20100621-12.el5       ksh-20060214              通过        

  m1            ksh-20100621-12.el5       ksh-20060214              通过        

结果:"ksh" 的 包存在性 检查已通过

 

检查 UID 值为 0 的多个用户

结果:对 UID 值为 0 的多个用户进行的检查已通过

 

检查: 当前组 ID 

结果:当前组 ID 检查已通过

 

开始检查 root 用户的主要组的一致性

  节点名                                   状态                      

  ------------------------------------  ------------------------

  m3                                    通过                      

  m2                                    通过                      

  m1                                    通过                      

 

已通过 root 用户主要组的一致性检查

 

正在使用网络时间协议 (NTP) 启动时钟同步检查...

 

NTP 配置文件检查开始...

NTP 配置文件 "/etc/ntp.conf" 在所有节点上可用

NTP 配置文件检查通过

 

正在检查守护程序的活动性...

 

检查: "ntpd" 的活动性

  节点名                                   正在运行?                   

  ------------------------------------  ------------------------

  m3                                    是                       

  m2                                    是                       

  m1                                    是                       

结果:"ntpd" 的活动性检查已通过

针对 NTP 守护程序或服务是否活动的检查在所有节点上均已通过

 

为快速定向选项 "-x" 检查 NTP 守护程序命令行

检查: NTP 守护程序命令行

  节点名                                   是否设置了快速定向选项?            

  ------------------------------------  ------------------------

  m3                                    是                       

  m2                                    是                       

  m1                                    是                       

结果:

NTP 守护程序快速定向选项检查已通过

 

在文件 "/etc/sysconfig/ntpd" 中为快速定向选项 "-x" 检查 NTP 守护程序的引导时间配置

 

检查: NTP 守护程序的引导时间配置

  节点名                                   是否设置了快速定向选项?            

  ------------------------------------  ------------------------

  m3                                    是                       

  m2                                    是                       

  m1                                    是                       

结果:

快速定向选项的 NTP 引导程序的引导时间配置检查已通过

 

检查所有节点上的 NTP 守护程序或服务是否均使用 UDP 端口 123

 

检查 NTP 守护程序或服务是否正在使用 UDP 端口 123

  节点名                                   端口是否打开?                 

  ------------------------------------  ------------------------

  m3                                    是                       

  m2                                    是                       

  m1                                    是                       

 

NTP 公用时间服务器检查开始...

NTP 时间服务器 "212.26.18.41" 由所有运行 NTP 守护程序的节点公用

NTP 时间服务器 ".LOCL." 由所有运行 NTP 守护程序的节点公用

公用 NTP 时间服务器检查通过

 

与 NTP 时间服务器的时钟时间偏移量检查开始...

正在节点 "[m3, m2, m1]" 上检查... 

检查: 与 NTP 时间服务器的时钟时间偏移量

 

时间服务器: 212.26.18.41 

时间偏移量限制: 1000.0 毫秒

  节点名           时间偏移量                     状态                      

  ------------  ------------------------  ------------------------

  m3            6.589                     通过                      

  m2            5.253                     通过                      

  m1            0.18                      通过                      

时间服务器 "212.26.18.41" 的时间偏移量在节点 "[m3, m2, m1]" 允许的限制内。

 

时间服务器: .LOCL. 

时间偏移量限制: 1000.0 毫秒

  节点名           时间偏移量                     状态                      

  ------------  ------------------------  ------------------------

  m3            0.0                       通过                      

  m2            0.0                       通过                      

  m1            0.0                       通过                      

时间服务器 ".LOCL." 的时间偏移量在节点 "[m3, m2, m1]" 允许的限制内。

时钟时间偏移量检查通过

 

结果:使用网络时间协议 (NTP) 进行时钟同步检查通过

 

正在检查核心文件名模式一致性...

核心文件名模式一致性检查已通过。

 

检查以确保用户 "grid" 不在 "root" 组中

  节点名           状态                        注释                      

  ------------  ------------------------  ------------------------

  m3            通过                        不存在                     

  m2            通过                        不存在                     

  m1            通过                        不存在                     

结果:用户 "grid" 不属于 "root" 组。检查已通过

 

检查默认用户文件创建掩码

  节点名           可用                        必需                        注释        

  ------------  ------------------------  ------------------------  ----------

  m3            0022                      0022                      通过        

  m2            0022                      0022                      通过        

  m1            0022                      0022                      通过        

结果:默认用户文件创建掩码检查已通过

检查文件 "/etc/resolv.conf" 在节点间的一致性

 

检查文件 "/etc/resolv.conf" 以确保只定义了 'domain' 和 'search' 条目中的一个

文件 "/etc/resolv.conf" 未同时定义 'domain' 和 'search' 条目

正在检查文件 "/etc/resolv.conf" 中的 'domain' 条目是否在节点间一致...

文件 "/etc/resolv.conf" 中的 'domain' 条目在节点间一致

正在检查文件 "/etc/resolv.conf" 中的 'search' 条目是否在节点间一致...

文件 "/etc/resolv.conf" 中的 'search' 条目在节点间一致

检查文件 "/etc/resolv.conf" 以确保只定义了一个 'search' 条目

所有节点在文件 "/etc/resolv.conf" 中都定义了一个 'search' 条目

检查所有节点以确保 'search' 条目为 "localdomain" (与在节点 "m3" 上找到的一样)

集群的所有节点都具有相同的 'search' 值

 

检查无法访问节点的 DNS 响应时间

  节点名                                   状态                      

  ------------------------------------  ------------------------

  m3                                    失败                      

  m2                                    失败                      

  m1                                    失败                      

PRVF-5636 : 在以下节点上, 无法访问的节点的 DNS 响应时间超过 "15000" 毫秒: m3,m2,m1

 

文件 "/etc/resolv.conf" 在各节点间不一致

 

检查: 时区一致性 

结果:时区一致性 检查已通过

 

在所有节点上预检查 集群服务设置 失败。

m1:/home/grid$

 

上面没有配置DNS所以报错 如果需要还是可以配置鉴于本公司内网就是没有配。

 

不要理它了 直接上图安装软件

 

[root@m1 soft]# xhost +

access control disabled, clients can connect from any host

一定要确保能够抓图 上次没有抓图死活解决不了 重装OK

 

 

 

[root@m1 soft]# su - grid

m1:/home/grid$/tmp/soft/grid/runInstalle

这个是笔记不是 我的 但是 可以思考一下

发现有两个failed,一个是ntp,一个是grid用户不在dba组中

oracle11gR2 RAC中使用Cluster Time Synchronization Service(CTSS)同步各节点的时间,当安装程序发现 NTP 协议处于非活动状态时,安装集群时间同步服务将以活动模式自动进行安装并通过所有节点的时间。如果发现配置了 NTP,则以观察者模式 启动集群时间同步服务,Oracle Clusterware 不会在集群中进行活动的时间同步。


使用root用户在node1,node2中执行以下操作,关闭ntp服务,mv配置文件

 

 

-------------------r

问题:

我发现不了磁盘在安装到

-----待续未完----




版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享: