HCIP--网络笔记(2)

简介: HCIP--网络笔记(2)

OSPF --- 无类别的路由协议

一、OSPF区域划分的要求:

1,区域之间必须存在ABR设备

2,必须按照星型拓扑来划分 --- 中间区域被称为骨干区域,骨干区域的区域ID(由32

位二进制构成,可以使用点分十进制表示,也可以直接使用十进制表示。)定义为0.

二、OSPF的基本配置

1,启动OSPF进程

2,创建区域

3,宣告

宣告的目的 --- 1,激活接口;2,发布路由

[r1]display ospf peer --- 查看邻居表
[r1]display ospf peer brief --- 查看邻居关系简表
[r1]display ospf lsdb --- 查看链路状态数据库
[r1]display ospf lsdb router 2.2.2.2 --- 查看具体LSA信息

COST = 参考带宽/真实带宽

开销值计算,如果出现小数,如果是小于1的小数,则直接按照1来看;如果是大于1的

小数,则直接取整数部分。

结构突变

1,突然新增一个网段 --- 触发更新,直接发送LSU包,需要ACK确认

2,突然断开一个网段 --- 触发更新,直接发送LSU包,需要ACK确认

3,无法沟通 ---- 死亡时间

条件匹配

指定路由器 --- DR --- 和MA网络中其他设备建立邻接关系。

备份指定路由 --- BDR --- 和MA网络中其他设备建立邻接关系。

一个MA网络当中,在DR和BDR都存在的情况下,至少需要4台设备才能见到邻居关系,

因为只有DRother之间会保持邻居关系

DR和BDR实际上是接口的概念。

条件匹配 --- 在MA网络中,若所有设备均为邻接关系,将出现大量的重复更新,故需要

进行DR/BDR的选举,所有DRother之间仅维持邻居关系即可

DR/BDR的选举规则:

1,先比优先级,优先级大的为DR,次大的为BDR优先级的初始默认值为1。


注意:如果将一个接口的优先级改为0,则代表该接口放弃DR/BDR的选举。


2,优先级相同时,则比较RID,RID大的路由器对应的接口为DR,次大的为

BDR。


DR/BDR的选举 --- 非抢占模式的选举 --- 一旦选举成功,则将不能被抢占。 ---- 选举

时间 --- 和死亡时间相同。

ospf的数据包

OSPF跨四层封装,IP头部使用89作为协议号标识OSPF。

HELLO包,DBD包,LSR包,LSU包,LSACK包

OSPF头部

Hello包中限制邻居关系建立的因素:

1,网络掩码

2,hello时间

3,dead time

4,OSPF特殊区域的标记

5,认证

确认包形态



链路状态类型,链路状态ID,通告路由器 --- LSA三元组 --- 这三个参数可以唯一的标识

出来一条LSA信息。

LSU包 --- 链路状态更新报文 --- 真正携带LSA信息的数据包

LSACK --- 链路状态确认报文 --- 确认包


OSPF接口网络类型 --- 指的是OSPF接口在不同的网络类型默认下的不同工作方式。

网络类型 OSPF接口网络类型(工作方式)

BMA(以太网) Broadcast,可以建立多个邻居关系。需要进行DR和BDR选举,

Hello 10 , Dead 40

P2P(HDLC,PPP,GRE,MGRE)

P2P,只能建立一个邻居关系,不需要进行DR和BDR选举,Hello

10 , Dead 40

虚拟接口(环回接口) 在华为体系中被写作P2P,实际没有数据收发。会学习32位主机

路由(通过修改接口的网络类型为broadcast可以将掩码长度还

原)

P2MP,可以建立多个邻居关系。不需要进行DR和BDR选举,

Hello 30 , Dead 120 ,会学习邻居接口IP地址的主机路由

NBMA(帧中继) NBMA,可以建立多个邻居关系。需要进行DR和BDR选举,Hello

30 , Dead 120,NBMA环境下无法自动建立邻居关系,需要手工指

定邻居关系。


在华为体系中,将环回接口在OSPF中的开销值定义为0,不会受到外界变化的影响。(修改参

考带宽不会影响该值。)

[r2-LoopBack0]ospf network-type broadcast --- 修改OSPF接口网络类型

华为体系将tunnel接口的传输速率定义为64K,实际上虚拟接口不存在传输速率。这样设定的

目的是为了让隧道接口的开销值变的很大,导致在存在其他路径时,尽可能的避免走隧道接

口,因为隧道接口需要进行复杂的封装和解封装过程,导致效率降低。

全连的MGRE环境 --- MESH --- 所有节点即使中心,也是分支。

[r1-ospf-1]peer 12.0.0.2--- 指定单播邻居 --- 一定需要双向指定。

Attempt --- 尝试 --- 过度状态,只有在需要手工指定邻居关系的状态下出现,在指定对方后

等待对方指定时将处于该状态,一旦对方指定,则将进行后续状态。


目录
相关文章
|
2月前
|
Linux 开发工具 Android开发
FFmpeg开发笔记(六十)使用国产的ijkplayer播放器观看网络视频
ijkplayer是由Bilibili基于FFmpeg3.4研发并开源的播放器,适用于Android和iOS,支持本地视频及网络流媒体播放。本文详细介绍如何在新版Android Studio中导入并使用ijkplayer库,包括Gradle版本及配置更新、导入编译好的so文件以及添加直播链接播放代码等步骤,帮助开发者顺利进行App调试与开发。更多FFmpeg开发知识可参考《FFmpeg开发实战:从零基础到短视频上线》。
123 2
FFmpeg开发笔记(六十)使用国产的ijkplayer播放器观看网络视频
|
2月前
|
机器学习/深度学习 数据可视化 计算机视觉
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
这篇文章详细介绍了如何通过可视化深度学习中每层特征层来理解网络的内部运作,并使用ResNet系列网络作为例子,展示了如何在训练过程中加入代码来绘制和保存特征图。
63 1
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
|
2月前
|
机器学习/深度学习 数据可视化 Windows
深度学习笔记(七):如何用Mxnet来将神经网络可视化
这篇文章介绍了如何使用Mxnet框架来实现神经网络的可视化,包括环境依赖的安装、具体的代码实现以及运行结果的展示。
54 0
|
2月前
|
机器学习/深度学习 编解码 算法
轻量级网络论文精度笔记(三):《Searching for MobileNetV3》
MobileNetV3是谷歌为移动设备优化的神经网络模型,通过神经架构搜索和新设计计算块提升效率和精度。它引入了h-swish激活函数和高效的分割解码器LR-ASPP,实现了移动端分类、检测和分割的最新SOTA成果。大模型在ImageNet分类上比MobileNetV2更准确,延迟降低20%;小模型准确度提升,延迟相当。
60 1
轻量级网络论文精度笔记(三):《Searching for MobileNetV3》
|
2月前
|
机器学习/深度学习 网络架构 计算机视觉
目标检测笔记(一):不同模型的网络架构介绍和代码
这篇文章介绍了ShuffleNetV2网络架构及其代码实现,包括模型结构、代码细节和不同版本的模型。ShuffleNetV2是一个高效的卷积神经网络,适用于深度学习中的目标检测任务。
79 1
目标检测笔记(一):不同模型的网络架构介绍和代码
|
2月前
|
机器学习/深度学习 数据采集 算法
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
这篇博客文章介绍了如何使用包含多个网络和多种训练策略的框架来完成多目标分类任务,涵盖了从数据准备到训练、测试和部署的完整流程,并提供了相关代码和配置文件。
58 0
目标分类笔记(一): 利用包含多个网络多种训练策略的框架来完成多目标分类任务(从数据准备到训练测试部署的完整流程)
|
2月前
|
编解码 人工智能 文件存储
轻量级网络论文精度笔记(二):《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object ..》
YOLOv7是一种新的实时目标检测器,通过引入可训练的免费技术包和优化的网络架构,显著提高了检测精度,同时减少了参数和计算量。该研究还提出了新的模型重参数化和标签分配策略,有效提升了模型性能。实验结果显示,YOLOv7在速度和准确性上超越了其他目标检测器。
49 0
轻量级网络论文精度笔记(二):《YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object ..》
|
2月前
|
机器学习/深度学习 Python
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
神经网络剪枝是一种通过移除不重要的权重来减小模型大小并提高效率的技术,同时尽量保持模型性能。
54 0
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
|
2月前
|
机器学习/深度学习 算法 TensorFlow
深度学习笔记(五):学习率过大过小对于网络训练有何影响以及如何解决
学习率是深度学习中的关键超参数,它影响模型的训练进度和收敛性,过大或过小的学习率都会对网络训练产生负面影响,需要通过适当的设置和调整策略来优化。
358 0
深度学习笔记(五):学习率过大过小对于网络训练有何影响以及如何解决
|
2月前
|
机器学习/深度学习 算法
深度学习笔记(四):神经网络之链式法则详解
这篇文章详细解释了链式法则在神经网络优化中的作用,说明了如何通过引入中间变量简化复杂函数的微分计算,并通过实例展示了链式法则在反向传播算法中的应用。
58 0
深度学习笔记(四):神经网络之链式法则详解