【操作系统】第四章:非连续内存分配(Part2:页表)

简介: 【操作系统】第四章:非连续内存分配(Part2:页表)

目录


  • 页表的结构
  • 页表机制的性能问题
  • 页表的时间问题
  • 页表的空间问题
  • 二级页表
  • 多级页表
  • 反向页表
  • 基于关联内存的方案:
  • 基于哈希计算的反向页表:
  • 段页式存储


正文


页表的结构


166493a708d1ae1e8f3d42e7b8b9dce4_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

本质是一个大数组。索引就是页号,索引对应的内容就是帧号。

特殊的bit:Flags(标志位)

存在位,修改位,引用位等:逻辑地址空间很大,可能有一部分逻辑地址空间是没有到对应到物理地址空间的,那么这个时候他的存在位的属性就应该是不存在了。假设为0【1代表存在0代表不存在】。还有比如代表读写的情况,会有一系列的表示方法来表示这些特殊属性。

0f79b3f96e622c4a7b64f8619c081f93_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

image.png

4db2232a4e07d874387a53cb9517ac1d_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

首先CPU开始找这个地址,第一个的存在标志位是0,代表当前物理页帧不存在,这个页对应的页帧不存在,没有这个映射关系,此时CPU如果访问了这个地址会产生一个内存访问异常。第二个的存在位是1,对应的物理页帧确实在物理地址中存在,然后就可以查到他的页帧号(这里是00100也就说是4),然后映射出来页帧内偏移是1023【和页的页内偏移量相等】,此时结合公式计算可得:

image.png

页表机制的性能问题


分页机制存在性能问题,主要是空间的代价问题。

1.我们希望空间占用越小越好

2.执行速度越快越好

image.png

一般由两种处理方法:

1.缓存:我们希望把常用的数据缓存到距离CPU距离比较近的地方(比如Cache,可以提高访问速度)

2.间接(Indirection)访问:通过多级页表机制可以有效缓解页表空间占据过大的问题


页表的时间问题


TLB:Translation Look-aside Buffer.快表

CPU里的MMU(内存管理单元)有TLB,是一个cache,他缓存的是页表里的内容。TLB是一个特殊的区域,位于CPU内部,它包含了两项(p和f)。p是key,f是value,这两部分形成了一个TLB的表项;而TLB的表项是有相关存储器(associative memory)来实现的,具备快速访问功能,可以并发查找,但是容量有限,执行代价较大。可以把当前/经常用到的页表项放入TLB,这样每次访问就不需要访问页表了。

的黑股份.gif


当CPU得到一个逻辑地址,首先根据p查找TLB,如果TLB里有p则可以直接找到f,然后f加上页帧偏移量o就可以直接得到物理地址,然后找内存中对应的地址和内容,这样就避免了一次对页表的访问。但是TLB容量有限,总有访问不到的情况,此时TLB miss,这时候会再去查页表,若存在(存在位为1),则取回frame number,然后用一个TLB表项来存储和缓存这一数据。这时也使得TLB本身效率提高。通过TLB,我们可以尽量避免对内存页表的访问,降低整体开销。

miss之后,把页表的项存入TLB的这个过程是由操作系统完成的。(MIPS);但是如果是x86系统,则是由硬件本身(CPU)完成的,这两种情况都存在。


页表的空间问题


多层次多级页表可以有效缓解空间开销大的问题。


二级页表


c781043b527181f1f811442f955a39e7_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

偏移量object不变,但是把页号再分为两块,p1和p2对应的分别是一级页表和二级页表的页号,拆分使得对一个大地址的寻址变成对N个小页表的寻址。

CPU寻址,会先找一级页表,一级页表的起始地址CPU是知道的,只要把p1作为index(索引)可以查找对应的一级页表的页表项,一级页表的页表项存储的是二级页表的起始地址(基址)。二级基址知道后,会根据二级页表的p2(作为index)找到对应p2的页表项。二级页表项的表项内容就是页帧号(Frame number),又因为页内偏移量和帧内偏移量是一样的,所以此时只需要加上偏移量o就可以获得完整的物理地址。

这个处理过程又多了一次寻址、查找、处理且页表都放在内存中,看似开销很大,但是这种方式使得某些不存在映射关系的页表项就没必要占用内存了。如果p1中的存在位是0,那么就没有对应二级页表中某项的必要了。如果是单一页表,即使映射关系不存在,对应的空间仍然需要保留在页表中,这样就可以极大节省了存储空间。


多级页表


be0ff14db2cd9d11a70339ab77648207_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png


进一步细分。一级页表的页表项对应二级页表的基址,二级页表的页表项对应三级页表的基址,三级页表的页表项对应页帧号。这种结构可以表示一个更大的地址空间。页表级数越多,访问开销会越来越大,时间花的很多,空间也省的很多。这种情况下我们需要结合前面的TLB来节省时间开销。


反向页表


页表大小和逻辑地址空间大小有直接关系,逻辑空间越大,那么对应的页表就越多。访问的开销也就相对越大,当地址空间足够大时,访问开销也将非常大

a098a738c98b16d3fe037036ed0bfb8c_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

那么我们为什么不试着去让页表与物理地址空间建立对应映射关系呢?我们设计一个数据结构,它的存储信息容量与逻辑地址空间大小无关的同时,还要建立物理与逻辑地址空间的映射关系。前面的所有方式都是用逻辑页号做index,反页表就是把物理页帧表做index。

380c2fc3e2a12f624a68c4d32a381ad1_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

页寄存器:也是一个数组。这里的index是页帧号(物理页号),对应的表项内容是页号(逻辑页号)。正好反过来,这种方式使得寄存器的容易只与物理地址的大小相关,而与逻辑地址空间的大小无关。这也就限制了寄存器数量。

但是这里存在的问题:

我们查找是根据页号来找页帧号,我们用这种数据结构的话,怎么去找到页号所在的位置呢,因为我们只得到了以页帧号为索引的数组(通过页帧号找到页号)。 【也就说怎么根据页号找到页帧号】

eb15de221cc359a012d7da71d69dfc55_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

例子:

物理内存大小:16MB(4K4K)
页帧数(size):4K
页寄存器使用的空间:(假设8字节/寄存器):4K
8=32K

那么页寄存器带来的额外开销就是32K/16M=0.2%

确实内存开销比较小。


基于关联内存的方案:


p是页号,值是页帧号,但是开销太大。设计成本太大,关联存储器用到的硬件逻辑很复杂,导致容量不可能足够大。如果帧数较少,可以通过关联存储器储存页寄存器。在关联存储中查找逻辑页号,成功则页帧号被提取,失败则返回页错误异常(Page fault)

存在的问题:

3b04f840175590b3339dc46867ae2a35_20200415180621370.png

所以这种方式不够实用。


基于哈希计算的反向页表:


f62be5ca1f30b45be0925134875e69b1_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

把关联存储器中通过页号查找页帧号的过程通过哈希计算来实现。哈希表是一个数学计算方法,只要给哈希函数一个输入值,那么就应该有一个输出值。这里的输入值是页号,输出就是页帧号。哈希可以用软件计算也可以用硬件加速,为了效率明显应该选择硬件加速。

为了提高效率,我们增加一个PID【当前运行程序的ID】,算出对应的帧号。关联存储器的变成了继续哈希表的组织,这种方式可以有效缓解映射开销。当然相对而言这种方式还是有问题,查找的时候虽然可行,但是查找的时候会出现哈希冲突,也就说一个输入可能会对应多个输出(不同的输入可能存在相同输出)。这就需要明确多个页帧号到底选哪一个,这也就强调了为什么要通过PID来解决这个问题。

63248f4830ea4bf3057f92a3445eb95d_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

反页表放入内存,所以哈希计算也需要从内存取值,也就说内存的开销仍然大,为此还需要一个类似TLB的机制来降低访问反页表的时间。

整个系统只需要一个反页表,因为使用页帧号做的映射表,所以相对而言比多级页表在空间上节省了很多。但是他需要有高效的哈希计算函数,以及解决冲突的机制,才能让访问效率得到保障。这种机制就是软件硬件相互配合,在空间和时间上取得一个比较好的结果。


段页式存储


段式存储在内存保护方面有优势,页式存储在内存利用和优化转移到后备存储方面有优势。所以,二者的结合:段页式储存。兼顾了段式在逻辑上的清晰和页式在管理上方便的特点

455dc3373f4c71fbd9728a4b358bacd9_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png

40d0df5a2482236f60b4b5e27b6e4a2c_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L0NoYWhvdA==,size_16,color_FFFFFF,t_70.png


目录
相关文章
|
7天前
|
存储 Linux 调度
深入理解操作系统:从进程管理到内存分配
【8月更文挑战第44天】本文将带你深入操作系统的核心,探索其背后的原理和机制。我们将从进程管理开始,理解如何创建、调度和管理进程。然后,我们将探讨内存分配,了解操作系统如何管理计算机的内存资源。最后,我们将通过一些代码示例,展示这些概念是如何在实际操作系统中实现的。无论你是初学者还是有经验的开发者,这篇文章都将为你提供新的视角和深入的理解。
|
28天前
|
安全 索引
操作系统中的内存管理策略
【8月更文挑战第23天】
53 1
|
1月前
|
算法 安全 UED
探索操作系统的内核空间:虚拟内存管理
【7月更文挑战第50天】 在现代操作系统中,虚拟内存管理是核心功能之一,它允许操作系统高效地使用物理内存,并为应用程序提供独立的地址空间。本文将深入探讨操作系统虚拟内存管理的机制,包括分页、分段以及内存交换等关键技术,并分析它们如何共同作用以实现内存的有效管理和保护。通过理解这些原理,读者可以更好地把握操作系统的内部工作原理及其对应用程序性能的影响。
|
1月前
|
存储 算法 安全
深入剖析操作系统的内存管理机制
在数字世界的构建中,操作系统扮演着至关重要的角色。本文将探讨操作系统中的内存管理机制,揭示其背后的技术原理和设计哲学。从内存分配策略到虚拟内存的实现,再到内存保护和回收机制,我们将一探究竟,解析操作系统如何高效、安全地管理宝贵的内存资源。
|
20天前
|
开发者
探索操作系统核心:一个简单的内存管理模拟
【8月更文挑战第31天】在数字世界的构建中,操作系统扮演着基石的角色。它不仅仅是软件与硬件之间的桥梁,更是维持计算机系统有序运行的心脏。本文将带您一探操作系统的核心奥秘——内存管理,通过一个简化的模型和代码示例,揭示内存分配、回收及优化的内在机制。无论您是编程新手还是资深开发者,这篇文章都将为您打开一扇理解计算机深层工作原理的大门。
|
20天前
|
Linux 调度 C语言
深入理解操作系统:从进程管理到内存分配
【8月更文挑战第31天】在数字世界的每一次点击和滑动背后,都隐藏着一个复杂而精妙的世界——操作系统。它如同一座无形的桥梁,连接着人类与机器的沟通。本文将带你一探究竟,从进程的生命周期到内存的精细管理,我们将一起解码操作系统的核心机制。通过直观的代码示例,你将看到理论与实践的结合如何让冷冰冰的机器生动起来。准备好了吗?让我们开始这段探索之旅,揭开操作系统神秘的面纱。
|
22天前
|
存储 算法 调度
深入理解操作系统:从进程管理到内存优化
【8月更文挑战第29天】在数字世界的心脏跳动着的,是无数行代码构成的操作系统。本文将带领读者穿梭于操作系统的两大核心领域——进程管理和内存优化,揭示它们如何协同工作以确保计算机系统的高效运行。通过实际代码示例,我们将探索进程的生命周期、调度策略以及内存分配和回收机制。加入我们,一起解锁操作系统的秘密,理解其背后的逻辑与哲学。
|
1月前
|
算法 程序员
理解操作系统内存管理:页面置换算法全解析
大家好,我是小米,热爱分享技术的大哥哥!今天聊的是操作系统中的页面置换算法。它解决的是内存满载时,如何选择合适的页面移出以腾出空间的问题。主要有三种算法:FIFO(先进先出),简单但性能不佳;LRU(最近最久未使用),考虑时间局部性,性能较好但实现较复杂;OPT(最佳置换),理论上最优但无法实际应用。这些算法各有千秋,在实际应用中需根据场景选择最合适的方案。希望这能帮大家更好地理解内存管理的核心机制!
72 2
|
1月前
|
分布式计算 算法 内存技术
深入理解操作系统的内存管理机制
【7月更文挑战第32天】 在现代计算机系统中,操作系统扮演着至关重要的角色,它负责协调和管理整个系统的资源。其中,内存管理作为操作系统的核心功能之一,其效率和稳定性直接影响到系统的整体性能。本文旨在探讨操作系统中内存管理的基本原理、关键技术以及面临的挑战,为读者提供一个全面了解内存管理机制的视角。通过分析不同的内存分配策略、分页与分段机制以及虚拟内存技术,我们揭示了操作系统如何优化内存使用,保证多任务环境下的数据完整性和安全性。
|
2月前
|
Cloud Native Devops 数据库
云原生架构:未来软件开发的引擎深入理解操作系统的虚拟内存管理
【7月更文挑战第30天】在这篇文章中,我们将深入探讨云原生架构的概念,以及它如何改变软件开发的世界。我们将从云原生的基本概念开始,然后深入到它的关键技术和实践,最后讨论它对软件开发的未来影响。无论你是软件开发者,还是IT专业人士,这篇文章都将为你提供深入理解和掌握云原生架构的重要信息。 【7月更文挑战第30天】在数字世界的构建中,虚拟内存是操作系统不可或缺的一环。本文将探索虚拟内存的核心概念、工作机制及其对现代计算环境的重要性,同时揭示其背后的技术细节和面临的挑战。
27 3