再次查看配置文件,发现接口编号同步过来了。
按照指导操作(进入到IRF-port下,添加成员端口,重启网卡)完成IRF配置,因为默认开启了irf auto-merge,所以会自动加入IRF。
查看IRF状态如下。
查看设备接口信息如下。
并且又发现了一个save safely操作,实际使用发现和常规保存一样。
MAD检测
IRF链路故障会导致一个IRF变成多个新的IRF。未尽量降低IRF分裂对业务的影响,一般建议配置MAD(Multi-Active Detection,多Active检测)检测。MAD主要提供分裂检测、冲突处理和故障恢复功能,不同MAD检测方式冲突处理原则不同,不允许同时配置:
LACP MAD和ARP MAD、ND MAD冲突处理的原则不同;BFD MAD和ARP MAD、ND MAD冲突处理的原则不同。
虽然当前环境下用不到,但我还是选择用BFD MAD这种常用的检测方式来演示一下。首先按照完成配置,具体如下:
# vlan 3000 # interface Vlan-interface3000 mad bfd enable mad ip address 30.3.3.1 255.255.255.0 member 1 mad ip address 30.3.3.2 255.255.255.0 member 2 # interface GigabitEthernet1/3/0 port link-mode bridge port access vlan 3000 # interface GigabitEthernet2/3/0 port link-mode bridge port access vlan 3000
检测状态发现不正常,显示为Faulty,正常应该显示Normal。
调整端口组VLAN ID为对应的3000。
此时MAD状态恢复正常Normal状态。
IRF信息查看
日常操作中,除了使用display irf显示IRF中所有成员设备的相关信息、使用display mad verbose显示MAD配置信息外,还会用到display irf configuration显示IRF中所有成员设备的配置信息。
使用display irf forwarding显示指定成员设备收到的IRF Hello报文的信息。
使用display irf link显示IRF链路信息。
使用场景探索
提醒一下,也就是做实验,日常使用可不要像我这么玩,还是很吃服务器性能的,CPU消耗最严重。vFW设备内查看CPU、内存利用率。
主机CPU使用情况。
数据转发消耗了很大的CPU。
IRF接口使用率始终保持在500Mb左右。
MAD检测端口也差不多有100Mb的广播报文。
最终确认为MAD检测链路消耗了过多主机资源,关掉之后CPU利用率降到了25%。
我开始也在想,既然都使用vFW了,为什么还要做IRF呢?配置不够了直接扩容配置不就行了吗?但后来我意识到这实际上主要是为了提高网络的健壮性。
像我这样在一台服务器上搭两台vFW的实际应用场景应该是没有,更多的可能是现场有多台服务器的场景,不同服务器上的vFW做IRF,这样能分担不同的流量场景,并且通过冗余配置和联动配置来实现业务的高可靠性,实现一台服务器挂死之后另一台服务器的感知,来响应这部分业务。
关于在vFW环境下怎么验证冗余备份的可靠性配置,还得容我再想一下。