内存地址转换与分段

本文涉及的产品
公网NAT网关,每月750个小时 15CU
简介:


原文标题:Memory Translation and Segmentation

原文地址:http://duartes.org/gustavo/blog/

 

[注:本人水平有限,仅仅好挑一些国外高手的精彩文章翻译一下。

一来自己复习,二来与大家分享。]

 

本文是Intel兼容计算机(x86)的内存与保护系列文章的第一篇。延续了启动引导系列文章的主题。进一步分析操作系统内核的工作流程。与曾经一样。我将引用Linux内核的源码。但对Windows仅仅给出演示样例(抱歉,我忽略了BSDMac等系统。但大部分的讨论对它们一样适用)。文中假设有错误。请指教。

 

在支持Intel主板芯片上。CPU对内存的訪问是通过连接着CPU和北桥芯片的前端总线来完毕的。

在前端总线上传输的内存地址都是物理内存地址,编号从0開始一直到可用物理内存的最高端。

这些数字被北桥映射到实际的内存条上。物理地址是明白的、终于用在总线上的编号,不必转换,不必分页,也没有特权级检查。

然而,在CPU内部。程序所使用的是逻辑内存地址。它必须被转换成物理地址后,才干用于实际内存訪问。从概念上讲,地址转换的步骤例如以下图所看到的:

 x86 CPU开启分页功能后的内存地址转换过程

x86 CPU开启分页功能后的内存地址转换过程

 

此图并未指出详实的转换方式。它只描写叙述了在CPU的分页功能开启的情况下内存地址的转换过程。假设CPU关闭了分页功能,或执行于16位实模式。那么从分段单元(segmentation unit)输出的就是终于的物理地址了。当CPU要运行一条引用了内存地址的指令时,转换过程就開始了。第一步是把逻辑地址转换成线性地址

可是。为什么不跳过这一步。而让软件直接使用线性地址(或物理地址呢?)其理由与:“人类为何要长有阑尾?它的主要作用不过被感染发炎而已”大致同样。这是进化过程中产生的奇特构造。要真正理解x86分段功能的设计,我们就必须回溯到1978年。

 

最初的8086处理器的寄存器是16位的。其指令集大多使用8位或16位的操作数。

这使得代码能够控制216个字节(或64KB)的内存。然而Intel的project师们想要让CPU能够使用很多其它的内存。而又不用扩展寄存器和指令的位宽。于是他们引入了段寄存器segment register),用来告诉CPU一条程序指令将操作哪一个64K的内存区块。

一个合理的解决方式是:你先载入段寄存器,相当于说“这儿!我打算操作開始于X处的内存区块”;之后,再用16位的内存地址来表示相对于那个内存区块(或段)的偏移量。总共同拥有4个段寄存器:一个用于栈(ss),一个用于程序代码(cs),两个用于数据(dses)。

在那个年代,大部分程序的栈、代码、数据都能够塞进相应的段中,每段64KB长。所以分段功能常常是透明的。

 

现今。分段功能依旧存在。一直被x86处理器所使用着。

每一条会訪问内存的指令都隐式的使用了段寄存器。比方,一条跳转指令会用到代码段寄存器(cs),一条压栈指令(stack push instruction)会使用到堆栈段寄存器(ss)。

在大部分情况下你能够使用指令明白的改写段寄存器的值。

段寄存器存储了一个16位的段选择符(segment selector);它们能够经由机器指令(比方MOV)被直接载入。唯一的例外是代码段寄存器(cs)。它仅仅能被影响程序运行顺序的指令所改变,比方CALLJMP指令。尽管分段功能一直是开启的,但其在实模式与保护模式下的运作方式并不同样的。

 

在实模式下,比方在导启动的,段选择符是一个16位的数值。指示出一个段的開始处的物理内存地址。这个数值必须被以某种方式放大。否则它也会受限于64K其中。分段就没有意义了。比方,CPU可能会把这个段选择符当作物理内存地址的高16位(只需将之左移16位,也就是乘以216)。这个简单的规则使得:能够按64K的段为单位。一块块的将4GB的内存都寻址到。遗憾的是,Intel做了一个非常诡异的设计,让段选择符只乘以24(或16),一举将寻址范围限制在了1MB,还引入了过度复杂的转换过程。下述图例显示了一条跳转指令,cs的值是0x1000

 实模式分段功能

实模式分段功能

 

实模式的段地址以16个字节为步长,从0開始编号一直到0xFFFF0(即1MB)。你能够将一个从00xFFFF16位偏移量(逻辑地址)加在段地址上。在这个规则下。对于同一个内存地址,会有多个段地址/偏移量的组合与之相应,并且物理地址能够超过1MB的边界,仅仅要你的段地址足够高(參见臭名昭著的A20线)。相同的,在实模式的C语言代码中,一个远指针far pointer)既包括了段选择符又包括了逻辑地址。用于寻址1MB的内存范围。真够“远”的啊。

随着程序变得越来越大,超出了64K的段,分段功能以及它古怪的处理方式,使得x86平台的软件开发变得很复杂。这样的设定可能听起来有些诡异,但它却把当时的程序猿推进了令人崩溃的深渊。

 

32位保护模式下,段选择符不再是一个单纯的数值,取而代之的是一个索引编号。用于引用段描写叙述符表中的表项。这个表为一个简单的数组。元素长度为8字节,每一个元素描写叙述一个段。

看起来例如以下:

 段描写叙述符

段描写叙述符

 

有三种类型的段:代码,数据,系统。为了简洁明了。仅仅有描写叙述符的共同拥有特征被绘制出来。基地址base address)是一个32位的线性地址,指向段的開始。段界限limit)指出这个段有多大。将基地址加到逻辑地址上就形成了线性地址。DPL是描写叙述符的特权级(privilege level),其值从0(最高特权,内核模式)到3(最低特权,用户模式),用于控制对段的訪问。

 

这些段描写叙述符被保存在两个表中:全局描写叙述符表GDT)和局部描写叙述符表LDT)。电脑中的每个CPU(或一个处理核心)都含有一个叫做gdtr的寄存器,用于保存GDT的首个字节所在的线性内存地址。为了选出一个段,你必须向段寄存器载入符合下面格式的段选择符:

 段选择符

段选择符

 

GDTTI位为0。对LDTTI位为1index指出想要表中哪一个段描写叙述符(译注:原文是段选择符,应该是笔误)。对于RPL。请求特权级(Requested Privilege Level),以后我们还会具体讨论。如今。须要好好想想了。

CPU执行于32位模式时,无论如何。寄存器和指令都能够寻址整个线性地址空间,所以根本就不须要再去使用基地址或其它什么鬼东西。那为什么不干脆将基地址设成0,好让逻辑地址与线性地址一致呢?Intel的文档将之称为“扁平模型”(flat model),并且在现代的x86系统内核中就是这么做的(特别指出,它们使用的是基本扁平模型)。基本扁平模型(basic flat model)等价于在转换地址时关闭了分段功能。

如此一来多么美好啊。

就让我们来看看32位保护模式下运行一个跳转指令的样例,当中的数值来自一个实际的Linux用户模式应用程序:

 保护模式的分段

保护模式的分段

 

段描写叙述符的内容一旦被訪问,就会被cache(缓存)。所以在随后的訪问中。就不再须要去实际读取GDT了,否则会有损性能。每一个段寄存器都有一个隐藏部分用于缓存段选择符所相应的那个段描写叙述符。假设你想了解很多其它细节。包含关于LDT的很多其它信息,请參阅《Intel System Programming Guide3A卷的第三章。2A2B卷讲述了每个x86指令,同一时候也指明了x86寻址时所使用的各种类型的操作数:16位,16位加段描写叙述符(可被用于实现远指针),32位。等等。

 

Linux上。仅仅有3个段描写叙述符在引导启动过程被使用。他们使用GDT_ENTRY宏来定义并存储在boot_gdt数组中。

当中两个段是扁平的,可对整个32位空间寻址:一个是代码段,载入到cs中,一个是数据段,载入到其它段寄存器中。第三个段是系统段,称为任务状态段(Task State Segment)。

在完毕引导启动以后。每个CPU都拥有一份属于自己的GDT

当中大部分内容是同样的。仅仅有少数表项依赖于正在执行的进程。你能够从segment.hLinux GDT的布局以及其实际的样子。这里有4个基本的GDT表项:2个是扁平的,用于内核模式的代码和数据。另两个用于用户模式。

在看这个Linux GDT时,请留意那些用于确保数据与CPU缓存线对齐的填充字节——目的是克服冯·诺依曼瓶颈

最后要说说。那个经典的Unix错误信息“Segmentation fault”(分段错误)并非由x86风格的段所引起的,而是因为分页单元检測到了非法的内存地址。

唉呀,下次再讨论这个话题吧。

 

Intel巧妙的绕过了他们原先设计的那个拼拼凑凑的分段方法,而是提供了一种富于弹性的方式来让我们选择是使用段还是使用扁平模型。因为非常easy将逻辑地址与线性地址合二为一,于是这成为了标准,比方如今在64位模式中就强制使用扁平的线性地址空间了。可是即使是在扁平模型中,段对于x86的保护机制也十分重要。保护机制用于抵御用户模式进程对系统内核的非法内存訪问。或各个进程之间的非法内存訪问。否则系统将会进入一个狗咬狗的世界!

在下一篇文章中,我们将窥视保护级别以及怎样用段来实现这些保护功能。





本文转自mfrbuaa博客园博客,原文链接:http://www.cnblogs.com/mfrbuaa/p/5378147.html,如需转载请自行联系原作者

相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
相关文章
|
7月前
|
安全 Linux Windows
深入理解操作系统内存管理:分页与分段的融合
【4月更文挑战第30天】 在现代操作系统中,内存管理是确保多任务环境稳定运行的关键。本文将深入探讨分页和分段两种内存管理技术,并分析它们如何相互融合以提供更为高效、安全的内存使用策略。通过对比这两种技术的优缺点,我们将探索现代操作系统中它们的综合应用,以及这种融合对操作系统设计和性能的影响。
|
7月前
|
存储 程序员 编译器
【C/C++ 堆栈以及虚拟内存分段 】C/C++内存分布/管理:代码区、数据区、堆区、栈区和常量区的探索
【C/C++ 堆栈以及虚拟内存分段 】C/C++内存分布/管理:代码区、数据区、堆区、栈区和常量区的探索
324 0
|
7月前
|
存储 程序员 数据处理
【汇编】mov和add指令、确定物理地址的方法、内存分段表示法
【汇编】mov和add指令、确定物理地址的方法、内存分段表示法
769 1
【汇编】mov和add指令、确定物理地址的方法、内存分段表示法
|
存储 缓存 Linux
系统内存管理:虚拟内存、内存分段与分页、页表缓存TLB以及Linux内存管理
虚拟内存的主要作用是提供更大的地址空间,使得每个进程都可以拥有大量的虚拟内存,而不受物理内存大小的限制。此外,虚拟内存还可以提供内存保护和共享的机制,保护每个进程的内存空间不被其他进程非法访问,并允许多个进程共享同一份物理内存数据,提高了系统的资源利用率。虚拟内存的实现方式有分段和分页两种,其中分页机制更为常用和灵活。分页机制将虚拟内存划分为固定大小的页,将每个进程的虚拟地址空间映射到物理内存的页框中。为了减少页表的大小和访问时间,采用了多级页表的方式,将大的页表划分为多个小的页表,只加载需要的页表项,节约了内存空间。
416 0
系统内存管理:虚拟内存、内存分段与分页、页表缓存TLB以及Linux内存管理
|
数据库 数据安全/隐私保护 索引
【操作系统】第四章:非连续内存分配(Part1:基于分页-分段的物理/逻辑地址转换)
【操作系统】第四章:非连续内存分配(Part1:基于分页-分段的物理/逻辑地址转换)
186 0
|
机器学习/深度学习 存储 Linux
内存为什么要分段? 分成多少种段? 段与段寄存器的区别?
内存为什么要分段? 分成多少种段? 段与段寄存器的区别?
《操作系统真象还原》——0.7 内存访问为什么要分段
内存按访问方式来看,其结构就如同上面的长方形带子,地址依次升高。为了解释问题更明白,我们假设还在实模式下,如果读者不清楚什么是实模式也不要紧,这并不影响理解段是什么,故暂且先忽略。
1875 0
|
1月前
|
缓存 Prometheus 监控
Elasticsearch集群JVM调优设置合适的堆内存大小
Elasticsearch集群JVM调优设置合适的堆内存大小
280 1

热门文章

最新文章