子网划分、计算网络地址问题

简介: 子网划分、计算网络地址问题

前言

本篇博客从概念入手,层层递进,详细分析了如何应对子网划分问题以及计算网络地址两大问题。

概念

简单介绍一下 网络号主机号子网号网络地址子网掩码 的概念。

① 网络号(网络前缀):IP地址的前 n 位。

② 主机号:IP地址中除了网络号的部分,32 - n 位。

③ 子网号:子网划分时,网络号向主机号借的部分。(简单来说,就是网络号不变,在网络号后面有几位子网号,主机号就少几位)

网络地址:网络号不变,主机号全为 0 的地址。

子网掩码:有和网络号一样位数的 1,以及和地址数相同位数的0组成的地址,例如 /20 表示 由 20 个 1 和 12 个 0 组成的地址。

子网划分

考点:子网掩码子网号

举例:

image.png

计算网络地址

考点:网络地址子网掩码

举例:

2.某一网络地址块 202.101.102.0 中有 5 台主机 A、B、C、D 和 E,它们的 IP 地址和子网掩码如下表所示。

A 202.101.102.18 255.255.255.240
B 202.101.102.146 255.255.255.240
C 202.101.102.158 255.255.255.240
D 202.101.102.161 255.255.255.240
E 202.101.102.173 255.255.255.240

(1)5 台主机 A、B、C、D、E 分属几个网段?哪些主机位于同一网段?

(2)主机 E 的网络地址为多少?

(3)若要加入第六台主机 F,使它能与主机 B 属于同一网段,其 IP 地址范围是多少?

(4)若在该网络地址块中采用 VLAN 技术划分子网,何种设备能实现 VLAN 之间的数据转发?

解:

(1) 计算网络地址 → IP 地址 与 子网掩码 进行按位与运算:

A:
  202.101.102.00010010
  255.255.255.11110000
  ————————————————————
  202.101.102.00010000 → 202.101.102.16
B:
  202.101.102.10010010
  255.255.255.11110000
  ————————————————————
  202.101.102.10010000 → 202.101.102.144
C:
  202.101.102.10011110
  255.255.255.11110000
  ————————————————————
  202.101.102.10010000 → 202.101.102.144
D:
  202.101.102.10100001
  255.255.255.11110000
  ————————————————————
  202.101.102.10100000 → 202.101.102.160
E:
  202.101.102.10101101
  255.255.255.11110000
  ————————————————————
  202.101.102.10100000 → 202.101.102.160

一共 3 个网段。

A 属于 202.101.102.16

B、C 属于 202.101.102.144

D、E 属于 202.101.102.160

(2)由(1)易知主机 E 的网络地址为 202.101.102.160。

(3)由(1)知主机 B 的网络地址为 202.101.102.144

该网段的 IP 地址范围为:202.101.102.10010000~202.101.102.10011111

除去全 0 全 1 以及主机 B 和 主机 C 的地址即为主机 F 的地址:

202.101.102.145~202.101.102.158 除去主机 B 和 主机 C 的地址

(4)计算网络地址,将主机号全置为 1 即可得到广播地址:

  202.101.102.10100100
  255.255.255.11110000
  ————————————————————
  202.101.102.10100000 → 202.101.102.10101111 → 202.101.102.175

广播地址为:202.101.102.175

同一网段的主机 D 和主机 E 可以收到

(5)三层交换机

目录
相关文章
|
6月前
|
机器学习/深度学习
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
【从零开始学习深度学习】33.语言模型的计算方式及循环神经网络RNN简介
|
16天前
|
机器学习/深度学习 数据采集 人工智能
基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
层次化Softmax算法通过引入Huffman树结构,将传统Softmax的计算复杂度从线性降至对数级别,显著提升了大规模词汇表的训练效率。该算法不仅优化了计算效率,还在处理大规模离散分布问题上提供了新的思路。文章详细介绍了Huffman树的构建、节点编码、概率计算及基于Gensim的实现方法,并讨论了工程实现中的优化策略与应用实践。
61 15
基于Huffman树的层次化Softmax:面向大规模神经网络的高效概率计算方法
|
4月前
|
机器学习/深度学习
神经网络各种层的输入输出尺寸计算
神经网络各种层的输入输出尺寸计算
270 1
|
2月前
|
存储 缓存 网络协议
|
2月前
|
存储 缓存 算法
|
2月前
|
存储
|
2月前
|
域名解析 缓存 负载均衡
网络浏览器并输入地址到显示的整个过程
网络浏览器并输入地址到显示的整个过程
|
4月前
|
云安全 安全 网络安全
云端防御战线:融合云计算与网络安全的未来策略
【7月更文挑战第47天】 在数字化时代,云计算已成为企业运营不可或缺的部分,而网络安全则是维护这些服务正常运行的基石。随着技术不断进步,传统的安全措施已不足以应对新兴的威胁。本文将探讨云计算环境中的安全挑战,并提出一种融合云服务与网络安全的综合防御策略。我们将分析云服务模式、网络威胁类型以及信息安全实践,并讨论如何构建一个既灵活又强大的安全体系,确保数据和服务的完整性、可用性与机密性。
|
4月前
|
机器学习/深度学习 存储 自然语言处理
天啊!深度神经网络中 BNN 和 DNN 基于存内计算的传奇之旅,改写能量效率的历史!
【8月更文挑战第12天】深度神经网络(DNN)近年在图像识别等多领域取得重大突破。二进制神经网络(BNN)作为DNN的轻量化版本,通过使用二进制权重和激活值极大地降低了计算复杂度与存储需求。存内计算技术进一步提升了BNN和DNN的能效比,通过在存储单元直接进行计算减少数据传输带来的能耗。尽管面临精度和硬件实现等挑战,BNN结合存内计算代表了深度学习未来高效节能的发展方向。
61 1
|
4月前
|
网络协议 算法 网络架构
OSPF 如何计算到目标网络的最佳路径
【8月更文挑战第24天】
68 0