深入理解Linux虚拟内存管理(一)1

简介: 深入理解Linux虚拟内存管理(一)

第1章 简介

本文基于 Linux 2.4.22。

  • 开始启程
  • 管理源码
  • 浏览代码
  • 阅读代码
  • 提交补丁

第2章 描述物理内存

   Linux 适用于广泛的体系结构,因此需要用一种与体系结构无关的方式来描述内存。本章描述了用于记录影响 VM 行为的内存簇、页面和标志位的结构。


   在 VM 中首要的普遍概念就是非一致内存访问(NUMA)。对大型机器而言,内存会分成许多簇,依据簇与处理器 “距离” 的不同,访问不同的簇会有不同的代价。比如,可能把内存的一个簇指派给每个处理器,或者某个簇和设备卡很近,很适合内存直接访问(DMA),那么就指派给该设备。


   每个簇都被认为是一个节点,在 Linux 中的 struct pg_data_t 体现了这一概念,既便在一致内存访问(UMA)体系结构中亦是如此。该结构通常用 pg_data_t 来引用。系统中的每个节点链接到一个以 NULL 结尾的 pgdat_list 链表中,而其中的每个节点利用 pg_data_t node_next 字段链接到下一个节点。对于像 PC 这种采用 UMA 结构的机器,只使用了一个称作 contig_page_data 的静态 pg_data_t 结构。在 2.1 节中会对节点作进一步的讨论。


   struct pg_data_t 在内存中,每个节点被分成很多的称为管理区(zone)的块,用于表示内存中的某个范围。不要混淆管理区和基于管理区的分配器,因为两者是完全不相关的。一个管理区由一个 struct zone_struct 描述,并被定义为 zone_t ,且每个管理区的类型都是 ZONE_DMA,ZONE_NORMAL 或者 ZONE_HIGHMEM 中的一种。不同的管理区类型适合不同类型的用途。ZONE_DMA 指低端范围的物理内存,某些工业标准体系结构(ISA)设备需要用到它。


   ZONE_NORMAL 部分的内存由内核直接映射到线性地址空间的较高部分,在 4.1 节会进一步讨论。ZONE_HIGHMEM 是系统中预留的可用内存空间,不被内核直接映射。



对于 x86 机器,管理区的示例如下:


ZONE_DMA         内存的首部 16 MB;

ZONE_NORMAL      16 MB~896MB;

ZONE_HIGHMEM     896 MB~末尾(128M)。

   许多内核操作只有通过 ZONE_NORMAL 才能完成,因此 ZONE_NORMAL 是影响系统性能最为重要的管理区。这些管理区会在 2.2 节讨论。系统的内存划分成大小确定的许多块,这些块也称为页面帧。每个物理页面帧由一个 struct page 描述,所有的结构都存储在一个全局 mem_map 数组中,该数组通常存放在 ZONE_NORMAL 的首部,或者就在小内存系统中为装入内核映象而预留的区域之后。2.4 节讨论了 struct page 的细 节问题,在 3.7 节将讨论全局 mem_map 数组的细节问题。在图 2.1 中解释了所有这些结构之间的基本关系。

    由于能够被内核直接访问的内存空间(ZONE_NORMAL)大小有限,所以 Linux 提出高端内存的概念,它将会在 2.7 节中进一步讨论。这一章讨论在引入高端内存管理以前,节点、管理区和页面如何工作。

2.1 节点

   正如前面所提到的,内存中的每个节点都由 pg_data_t 描述,而 pg_data_t 由 struct pglist_data 定义而来。在分配一个页面时,Linux 采用节点局部分配的策略,从最靠近运行中的 CPU 的节点分配内存。由于进程往往是在同一个 CPU 上运行,因此从当前节点得到的内存很可能被用到。结构体在  文件中声明如下所示:

#define ZONE_DMA      0
#define ZONE_NORMAL     1
#define ZONE_HIGHMEM    2
#define MAX_NR_ZONES    3

typedef struct pglist_data {
  zone_t node_zones[MAX_NR_ZONES];
  zonelist_t node_zonelists[GFP_ZONEMASK+1];
  int nr_zones;
  struct page *node_mem_map;
  unsigned long *valid_addr_bitmap;
  struct bootmem_data *bdata;
  unsigned long node_start_paddr;
  unsigned long node_start_mapnr;
  unsigned long node_size;
  int node_id;
  struct pglist_data *node_next;
} pg_data_t;

   现在我们简要地介绍每个字段。


node_zones:

该节点所在管理区为 ZONE_HIGHMEM,ZONE_NORMAL 和 ZONE_DMA。

node_zonelists:

它按分配时的管理区顺序排列。在调用 free_area_init_core() 时,通过 mm/page_alloc.c 文件中的 build_zonelists() 建立顺序。如果在 ZONE_HIGHMEM 中分配失败,就有可能还原成 ZONE_NORMAL 或 ZONE_DMA。

nr_zones:

表示该节点中的管理区数目,在 1 到 3 之间。并不是所有的节点都有 3 个管理区。例如,一个 CPU 簇就可能没有 ZONE_DMA。

node_mem_map:

指 struct page 数组中的第一个页面,代表该节点中的每个物理帧。它被放置在全局 mem_map 数组中。

valid_addr_bitmap:

一张描述内存节点中 “空洞” 的位图,因为并没有实际的内存空间存在。事实上,它只在 Sparc 和 Sparc64 体系结构中使用,而在任何其他体系结构中可以忽略掉这种情况。

bdata:

指向内存引导程序,在第 5 章中有介绍。

node_start_paddr:

节点的起始物理地址。无符号长整型并不是最佳选择,因为它会在 ia32 上被物理地址拓(PAE)以及一些 PowerPC 上的变量如 PPC440GP 拆散。PAE 在第 2.7 节有讨论。一种更好的解决方法是用页面帧号(PFN)记录该节点的起始物理地址。一个 PFN 仅是一个简单的物理内存索引,以页面大小为基础的单位计算。物理地址的 PFN 一般定义为(page_phys_addr >> PAGE_SHIFT)。

node_start_mapnr:

它指出该节点在全局 mem_map 中的页面偏移。在 free_area_init_core() 中,通过计算 mem_map 与该节点的局部 mem_map 中称为 Imem_map 之间的页面数,从而得到页面偏移。

node_size:

这个管理区中的页面总数。

node_id:

节点的 ID 号(NID),从 0 开始。

node_next:

指向下一个节点,该链表以 NULL 结束。

   所有节点都由一个称为 pgdat_list 的链表维护。这些节点都放在该链表中,均由函数 init_bootmem_core() 初始化节点,在 5.3 节会描述该函数。截至最新的 2.4 内核( >2.4.18 ),对该链表操作的代码段基本上如下所示:

  pg_data_t * pgdat;
  pgdat = pgdat_list;
  do {
    /* do something with pgdata_t */
  } while((pgdat = pgdat->node_next));

    在最新的内核版本中,有一个宏 for_each_pgdat() ,它一般定义成一个 for 循环,以提高代码的可读性。

2.2 管理区

    每个管理区由一个 struct zone_struct 描述。 zone_struct 用于跟踪诸如页面使用情况统计数,空闲区域信息和锁信息等。在 中它的声明如下所示:

/*
 * On machines where it is needed (eg PCs) we divide physical memory
 * into multiple physical zones. On a PC we have 3 zones:
 *
 * ZONE_DMA   < 16 MB ISA DMA capable memory
 * ZONE_NORMAL  16-896 MB direct mapped by the kernel
 * ZONE_HIGHMEM  > 896 MB only page cache and user processes
 */
typedef struct zone_struct {
  /*
   * Commonly accessed fields:
   */
  spinlock_t    lock;
  unsigned long   free_pages;
  unsigned long   pages_min, pages_low, pages_high;
  int     need_balance;

  /*
   * free areas of different sizes
   */
  free_area_t   free_area[MAX_ORDER];

  /*
   * wait_table   -- the array holding the hash table
   * wait_table_size  -- the size of the hash table array
   * wait_table_shift -- wait_table_size
   *        == BITS_PER_LONG (1 << wait_table_bits)
   *
   * The purpose of all these is to keep track of the people
   * waiting for a page to become available and make them
   * runnable again when possible. The trouble is that this
   * consumes a lot of space, especially when so few things
   * wait on pages at a given time. So instead of using
   * per-page waitqueues, we use a waitqueue hash table.
   *
   * The bucket discipline is to sleep on the same queue when
   * colliding and wake all in that wait queue when removing.
   * When something wakes, it must check to be sure its page is
   * truly available, a la thundering herd. The cost of a
   * collision is great, but given the expected load of the
   * table, they should be so rare as to be outweighed by the
   * benefits from the saved space.
   *
   * __wait_on_page() and unlock_page() in mm/filemap.c, are the
   * primary users of these fields, and in mm/page_alloc.c
   * free_area_init_core() performs the initialization of them.
   */
  wait_queue_head_t * wait_table;
  unsigned long   wait_table_size;
  unsigned long   wait_table_shift;

  /*
   * Discontig memory support fields.
   */
  struct pglist_data  *zone_pgdat;
  struct page   *zone_mem_map;
  unsigned long   zone_start_paddr;
  unsigned long   zone_start_mapnr;

  /*
   * rarely used fields:
   */
  char      *name;
  unsigned long   size;
} zone_t;

下面是对该结构的每个字段的简要解释。


lock:

并行访问时保护该管理区的自旋锁。

free_pages:

该管理区中空闲页面的总数。

pages_min,pages_low,pages_high:

这些都是管理区极值,在下一节中会讲到这些极值。

need_balance:

该标志位通知页面换出 kswapd 平衡该管理区。当可用页面的数量达到管理区极值的某一个值时,就需要平衡该管理区了。极值会在下一节讨论。

free_area:

空闲区域位图,由伙伴分配器使用。

wait_table:

等待队列的哈希表,该等待队列由等待页面释放的进程组成。这对 wait_on_page() 和 unlock_page() 非常重要。虽然所有的进程都可以以在一个队列中等待,但这可能会导致所有等待进程在被唤醒后,都去竞争依旧被锁的页面。大量的进程像这样去尝试竞争一个共享资源,有时被称为惊群效应。等待队列表会在 2.2.3 小节作进一步的讨论。

wait_table_size:

该哈希表的大小,它是 2 的幂。

wait_table_shift:

定义为一个 long 型所对应的位数减去上述表大小的二进制对数。

zone_pgdat:

指向父 pg_data_t。

zone_mem_map:

涉及的管理区在全局 mem_map 中的第一页。

zone_start_paddr:

同 node_start_paddr。

zone_start_mapnr:

同 node_start_mapnr。

name:

该管理区的字符串名字,“DMA”,“Normal” 或者 “HighMem”。

size:

该管理区的大小,以页面数计算。

2.2.1 管理区极值

   当系统中的可用内存很少时,守护程序 kswapd 被唤醒开始释放页面(见第 10 章)。如果内存压力很大,进程会同步地释放内存,有时候这种情况被引用为 direct-reclaim 路径。影响页面换出行为的参数与 FreeBSD[McK96] 和 Solaris[MM01] 中所用的参数类似。


   每个管理区都有三个极值,分别称为 pages_low,pages_min 和 pages_high,这些极值用于跟踪一个管理区承受了多大的压力。它们之间的关系如图 2.2 所示。pages_min 的页面数量在内存初始化阶段由函数 free_area_init_core() 计算出来,并且是基于页面的管理区大小的一个比率。计算值初始化为 ZoneSizeInPages/128。它所能取最小值是 20 页(在 x86 上是 80KB),而可能的最大值是 255 页(在 x86 上是 1 MB)。

    每个极值在表示内存不足时的行为都互不相同。

  • pages_low

   在空闲页面数达到 pages_low 时,伙伴分配器就会唤醒 kswapd 释放页面。与之对应的是 Solaris 中的 lotsfree 和 FreeBSD 中的 freemin。pages_low 的默认值是 pages_min 的两倍。

pages_min:

   当达到 pages_min 时,分配器会以同步方式启动 kswapd,有时候这种情况被引用为 direct-reclaim 路径。在 Solaris 中没有与之等效的参数,最接近的是 desfree 或 min-free,这两个参数决定了页面换出扫描程序被唤醒的频率。

pages_high:

   kswpad 被唤醒并开始释放页面后,在 pages_high 个页面被释放以前,是不会认为该管理区已经 “平衡” 的。当达到这个极值后,kswapd 就再次睡眠。在 Solaris 中,它被称为 lotsfree,在 BSD 中,它被称为 free_target。 pages_high 的默认值是 pages_min 的三倍。

   在任何操作系统中,无论调用什么样的页面换出参数,它们的含义都是相同的。它们都用于决定页面换出守护程序或页面换出进程释放页面的频繁程度。

2.2.2 计算管理区大小

    每个管理区的大小在 setup_memory() 中计算出来,如图 2.3 所示。

   PFN 物理内存映射,以页面计算的偏移量。系统中第一个可用的 PFN(min_low_pfn) 分配在被导入的内核映象末尾 _end 后的第一个页面位置。其值作为一个文件范围变量存储在 mm/bootmem.c 文件中,与引导内存分配器配套使用。


   系统中的最后一个页面帧的 max_pfn 如何计算完全与体系结构相关。在 x86 的情况下,通过函数 find_max_pfn() 计算出 ZONE_NORMAL 管理区的结束位置值 max_low_pfn。这一块管理区是可以被内核直接访问的物理内存,并通过 PAGE_OFFSET 标记了内核/用户空间之间划分的线性地址空间。这个值与其他的一些值,都存储在 mm/bootmem.c 文件中。在内存很少的机器上,max_pfn 的值等于 max_low_pfn。


   通过 min_low_pfn,max_low_pfn 和 max_pfn 这三个变量,系统可以直接计算出高端内存的起始位置和结束位置,表示文件范围的变量 highstart_pfn 和 highend_pfn 存储在 arch/i286/mm/init.c 文件中。这些值接着被物理页面分配器用来初始化高端内存页面,见 5.6 节。

2.2.3 管理区等待队列表

   当页面需要进行 I/O 操作时,比如页面换入或页面换出,I/O 必须被锁住以防止访问不一致的数据。使用这些页面的进程必须在 I/O 能访问前,通过调用 wait_on_page() 被添加到一个等待队列中。当 I/O 完成后,页面通过 UnlockPage() 解锁,然后等待队列上的每个进程都将被唤醒。理论上每个页面都应有一个等待队列,但是系统这样会花费大量的内存存放如此

多分散的队列。Linux 的解决办法是将等待队列存储在 zone_t 中。基本进程如图 2.4 所示。


  在管理区中只有一个等待队列是有可能的,但是这意味着等待该管理区中任何一个页面的所有进程在页面解锁时都将被唤醒。这会引起惊群效应的问题。Linux 的解决办法是将等待队列的哈希表存储在 zone_wait_table 中。在发生哈希冲突时,虽然进程也有可能会被无缘无故地唤醒,但冲突不会再发生得如此频繁了。


   该表在 free_area_init_core() 时就被初始化了。它的大小通过 wait_table_size() 计算,并存储在 zone_t->wait_table_size 中。 等待队列最多有 4096 个。而小一点的队列的大小是 NoPages/PAGE_PER_WAITQUEUE 个队列数和 2 的幂次方的最小值,其中 NoPages 是该管理区中的页面数,PAGE_PER_WAITQUEUE 被定义为 256,即表的大小由如下等式计算出的整数部分表示:

image.png

   zone_t->wait_table_shift 字段通过将一个页面地址的比特数右移以返回其在表中的索引而计算出来。函数 page_waitqueue() 用于返回某管理区中一个页面对应的等待队列。它一般采用基于已经被哈希的 struct page 的虚拟地址的乘积哈希算法。


   page_waitqueue 一般需要用 GOLDEN_RATIO_PRIME 乘以该地址,并将结果 zone_t→wait_table_shift 的比特数右移以得到其生哈希表中的索引结果。GOLDEN_RATIO_PRIME [Lev00] 是在系统中最接近所能表达的最大整数的 golden ratio[Knu68] 的最大素数。

2.3 管理区初始化

   管理区的初始化在内核页表通过函数 paging_init() 完全建立起来以后进行。页面表的初始化在 3.6 节会涉及。可以肯定地说,不同的系统执行这个任务虽然不一样,但它们的目标都是相同的:应当传递什么样的参数给 UMA 结构中的 free_area_init() 或者 NUMA 结构中的 free_area_init_node() 。UMA 唯一需要得到的参数是 zones_size。参数的完整列表如下。

// mm/page_alloc.c
void __paginginit free_area_init_node(int nid, unsigned long *zones_size,
    unsigned long node_start_pfn, unsigned long *zholes_size);

nid:

   被初始化管理区中节点的逻辑标识符,NodeID。

pgdat:

   节点中被初始化的 pa_data_t。在 UMA 结构里为 contig_page_data。

pmap:

   被 free_area_init_core() 函数用于设置指向分配给节点的局部 lmem_map 数组的指针 UMA 结构中,它往往被忽略掉,因为 NUMA 将 mem_map 处理为起始于 PAGE_OFF_SET 的虚拟数组。而在 UMA 中,该指针指向全局 mem_map 变量,目前还有 mem_map,都在 UMA 中被初始化。

zones_sizes:

一个包含每个管理区大小的数组,管理区大小以页面为单位计算。

zone_start_paddr:

第一个管理区的起始物理地址。

zone_holes:

一个包含管理区中所有内存空洞大小的数组。

   核心函数 free_area_init_core() 用于向每个 zone_t 填充相关的信息,并为节点分配 mem_map 数组。释放管理区中的哪些页面的信息在这里并不考虑。这些信息直到引导内存分配器使用完之后才可能知道,这将在第 5 章进行讨论。

2.4 初始化 mem_map

   mem_map 区域在系统启动时会被创建成下列两种方式中的某一种。在 NUMA 系统中,全局 mem_map 被处理为一个起始于 PAGE_OFFSET 的虚拟数组。free_area_init_node() 函数在系统中被每一个活动节点所调用,在节点被初始化的时候分配数组的一部分。而在 UMA 系统中,free_area_init() 使用 contig_page_data 作为节点,并将全局 mem_map 作为该节点的局部 mem_map。在图 2.5 中显示了这两个函数的调用图。


  核心函数 free_area_init_core() 为已经初始化过的节点分配局部 lmem_map。而该数组的内存通过引导内存分配器中的 alloc_bootmem_node()(见第 5 章)分配得到。在 UMA 结构中,新分配的内存变成了全局的 mem_map,但是这和 NUMA 中的还是稍有不不同的。


   NUMA 结构中,分配给 lmem_map 的内存在它们自己的内存节点中。全局 mem_map 从未被明确地分配过,取而代之的是被处理成起始于 PAGE_OFFSET 的虚拟数组。局部映射的地址存储在 pg_data_t→node_mem_map 中,也存在于虚拟 mem_map 中。对节点中的每个管理区而言,虚拟 mem_map 中表示管理区的地址存储在 zone_t→zone_mem_map 中。余下的节点都将 mem_map 作为真实的数组,因为其中只有有效的管理区会被节点所使用。

2.5 页面

    系统中的每个物理页面都有一个相关联的 struct page 用以记录该页面的状态。在内核 2.2 版本[BC00]中,该结构类似它在 System V 中的等 价物,就像 unix 中的其他分支一样,该结构经常变动。它在 linux/mm.h 中声明如下:

/*
 * Each physical page in the system has a struct page associated with
 * it to keep track of whatever it is we are using the page for at the
 * moment. Note that we have no way to track which tasks are using
 * a page.
 *
 * Try to keep the most commonly accessed fields in single cache lines
 * here (16 bytes or greater).  This ordering should be particularly
 * beneficial on 32-bit processors.
 *
 * The first line is data used in page cache lookup, the second line
 * is used for linear searches (eg. clock algorithm scans). 
 *
 * TODO: make this structure smaller, it could be as small as 32 bytes.
 */
typedef struct page {
  struct list_head list;    /* ->mapping has some page lists. */
  struct address_space *mapping;  /* The inode (or ...) we belong to. */
  unsigned long index;    /* Our offset within mapping. */
  struct page *next_hash;   /* Next page sharing our hash bucket in
             the pagecache hash table. */
  atomic_t count;     /* Usage count, see below. */
  unsigned long flags;    /* atomic flags, some possibly
             updated asynchronously */
  struct list_head lru;   /* Pageout list, eg. active_list;
             protected by pagemap_lru_lock !! */
  struct page **pprev_hash; /* Complement to *next_hash. */
  struct buffer_head * buffers; /* Buffer maps us to a disk block. */

  /*
   * On machines where all RAM is mapped into kernel address space,
   * we can simply calculate the virtual address. On machines with
   * highmem some memory is mapped into kernel virtual memory
   * dynamically, so we need a place to store that address.
   * Note that this field could be 16 bits on x86 ... ;)
   *
   * Architectures with slow multiplication can define
   * WANT_PAGE_VIRTUAL in asm/page.h
   */
#if defined(CONFIG_HIGHMEM) || defined(WANT_PAGE_VIRTUAL)
  void *virtual;      /* Kernel virtual address (NULL if
             not kmapped, ie. highmem) */
#endif /* CONFIG_HIGMEM || WANT_PAGE_VIRTUAL */
} mem_map_t;

下面是对该结构中的各个字段的简要介绍。


list:

   页面可能属于多个列表,此字段用作该列表的首部。例如,映射中的页面将属于 address_space 所记录的 3 个循环链表中的一个。这 3 个链表是 clean_pages,dirty_pages 以及 locked_pages。在 slab 分配器中,该字段存储有指向管理页面的 slab 和高速缓存结构的指针。它也用于链接空闲页面的块。


mapping:

   如果文件或设备已经映射到内存,它们的索引节点会有一个相关联的 address_space。如果这个页面属于这个文件,则该字段会指向这个 address_space。如果页面是匿名的,且设置了 mapping,则 address_space 就是交换地址空间的 swapper_space。


index:

   这个字段有两个用途,它的意义与该页面的状态有关。如果页面是文件映射的一部分,它就是页面在文件中的偏移。如果页面是交换高速缓存的一部分,它就是在交换地址空间中(swapper_space)address_space 的偏移量。此外,如果包含页面的块被释放以提供给

一个特殊的进程,那么被释放的块的顺序(被释放页面的 2 的幂)存放在 index 中。这在函数 __free_pages_ok() 中设置。


next_hash:

   属于一个文件映射并被散列到索引节点及偏移中的页面。该字段将共享相同的哈希桶的页面链接在一起。


count:

   页面被引用的数目。如果 count 减到 0,它就会被释放。当页面被多个进程使用到,或者被内核用到的时候,count 就会增大。


flags:

   这些标志位用于描述页面的状态。所有这些标志位在  中声明,并在表 2.1 中列出。有许多已定义的宏用于测试、清空和设置这些标志位,已在表 2.2 中列出。其中最为有用的标志位是 SetPageUptodate(),如果在设置该位之前已经定义,那么它会调用体系结构相关的函数 arch_set_page_uptodate()。


Iru:

   根据页面替换策略,可能被交换出内存的页面要么会存放于 page_alloc.c 中所声明的 active_list 中,要么存放于 inactive_list 中。这是最近最少使用(LRU)链表的链表首部。这两个链表的细节将在第 10 章讨论。


pprev_hash:

   是对 next_hash 的补充,使得哈希链表可以以双向链表工作。


buffers:

   如果一个页面有相关的块设备缓冲区,该字段就用于跟踪 buffer_head。如果匿名页面有一个后援交换文件,那么由进程映射的该匿名页面也有一个相关的 buffer_head。这个缓冲区是必不可少的,因为页面必须与后援存储器中的文件系统定义的块同步。


virtual:

   通常情况下,只有来自 ZONE_NORMAL 的页面才由内核直接映射。为了定位 ZONE_HIGHMEM 中的页面,kmap() 用于为内核映射页面。这些在第 9 章有进一步的讨论,但只有一定数量的页面会被映射到。当某个页面被映射时,这就是它的虚拟地址。


   类型 mem_map_t 是对 struct page 的类型定义,因此在 mem_map 数组中可以很容易就引用它。

2.6 页面映射到管理区

   在最近的 2.4.18 版本的内核中,struct page 存储有一个指向对应管理区的指针 page->zone。该指针在后来被认为是一种浪费,因为如果有成千上万的这样的 struct page 存在,那么即使是很小的指针也会消耗大量的内存空间。在更新后的内核版本中,已经删除了该 zone 字段,取 而代之的是 page→flags 的最高 ZONE_SHIFT(在 x86 下是 8 位)位,该 ZONE_SHIFT 位记录该页面所属的管理区。首先,建立管理区的 zone_table,在 linux/page_alloc.c 中它的声明如下:

zone_t * zone_table[MAX_NR_ZONES * MAX_NR_NODES];
EXPORT_SYMBOL(zone_table);

// MAX_NR_ZONES 是一个节点中所能容纳的管理区的最大数,如 3 个。

   MAX_NR_NODES 是可以存在的节点的最大数。函数 EXPORT_SYMBOL() 使得 zone_table 可以被载入模块访问。该表处理起来就像一个多维数组。在函数 free_area_init_core() 中,一个节点中的所有页面都会初始化。首先它设置该表的值

  zone_table[nid * MAX_NR_ZONES + j] = zone;

    其中,nid 是节点 ID,是管理区索引号,zone 是结构 zone_t。对每个页面,函数 set_page_zone() 的调用方式如下所示:

set_page_zone(page, nid * MAX_NR_ZONES + j);

    其中,参数 page 是管理区被设置了的页面。因此,zone_table 中的索引被显 式地存储在页面中。

2.7 高端内存

   由于内核(ZONE_NORMAL)中可用地址空间是有限的,所以 Linux 内核已经支持了高端内存的概念。高端内存的两个阈值都存在于 32 位 x86 系统中,分别是 4 GB 和 64 GB。4 GB 的限制与 32 位物理地址定位的内存容量有关。为了访问 1 GB 和 4 GB 之间的内存,内核通过 kmap() 将高端内存的页面临时映射成 ZONE_NORMAL。这一点会在第 9 章深入讨论。


   第二个 64 GB 的限制与物理地址扩展(PAE)有关,物理地址扩展是 Intel 发明的用于允许 32 位系统使用 RAM 的。它使用了附加的 4 位来定位内存中的地址,实现了 236 字节(64GB)内存的定位。


   在理论上,物理地址扩展(PAE)允许处理器寻址到 64 GB,但实际上,Linux 中的进程仍然不能访问如此大的 RAM,因为虚拟地址空间仍然是 4 GB。这就导致一些试图用 malloc() 函数分配所有 RAM 的用户感到失望。


   其次,地址扩展空间(PAE)不允许内核自身拥有大量可用的 RAM。用于描述页面的 struct page 仍然需要 44 字节,并且用到了 ZONE_NORMAL 中的内核虚拟地址空间。这意味着,为了描述 1 GB 的内存,需要大约 11 MB 的内核内存。同理,为了描述 16 GB 的内存则需要耗费 176 MB 的内存,这将对 ZONE_NORMAL 产生非常大的压力。在不考虑其他的数据结构而使用 ZONE_NORMAL 时,情况看起来还不太槽糕。在最坏的情况下,甚至像页面表项(PTE)之类的很小的数据结构也需要大约 16 MB。所以在 x86 机器上的 Linux 的可用物理内存实际被限制为 16 GB。如果确实需要访问更多的内存,我的建议一般是直接去买一台 64 位机器。

2.8 Linux2.6版本中有哪些新特性

(1)节 点

    大致看去,内存如何被描述好像没有多大的变化似的,但是表面上细微的变化实际上涉及的面却相当广。节点描述器 pg_data_t 增加了如下新的字段。

// include/linux/mmzone.h
typedef struct pglist_data {
  /* ... */
  unsigned long node_start_pfn; 
  wait_queue_head_t kswapd_wait;
  unsigned long node_present_pages; /* total number of physical pages */
  unsigned long node_spanned_pages; /* total size of physical page
               range, including holes */  
  /* ... */
};

node_start_pfn:

   替换了 node_start_paddr 字段。惟一的一个差异便是新的字段是一个 PFN,而不是一个物理地址。之所以变更是因为 PAE 体系结构可以访问比 32 位更多的内存,因此大于 4 GB 的节点用原来的字段是访问不到的。


kswapd_wait:

   为 kswapd 新添加的等待队列链表。在 2.4 里面,页面交换守护程序有一个全局等待队列。而在 2.6 里面,每个节点都有一个 kswapdN,其中 N 是节点的标识符,而每个 kswapd 都有其自己的等待队列对应该字段。


node_size:

   字段被移除了,取而代之的是两个新字段。之所以如此变更是因为认识到节点中会有空洞的存在,空洞是指地址后面其实没有真正存在的物理内存。


node_present_pages:

   节点中所有物理页面的总数 。


node_spanned_pages:

   通过节点访问的所有区域,包括任何可能存在的空洞。

(2)管理区

    初始看来,两个版本中的管理区也是有很大差异的。它们不再被称为 zone_t,取而代之被简单地引用为 struct zone。第二个主要的不同是 LRU 链表。正如我们在第 10 章中看到的,2.4 的内核有一个全局的页面链表,决定了被释放页面或进行换出页面的顺序。这些链表目前被存储在 struct zone 中。相关的字段如下所示。

// include/linux/mmzone.h  linux 2.6.34
struct zone {
  /* ... */
  
  /* Fields commonly accessed by the page reclaim scanner */
  spinlock_t    lru_lock; 
  int                     all_unreclaimable; /* All pages pinned */ 
  unsigned long   pages_scanned;     /* since last reclaim */
  /* zone_start_pfn == zone_start_paddr >> PAGE_SHIFT */
  unsigned long   zone_start_pfn; 
  unsigned long   spanned_pages;  /* total size, including holes */
  unsigned long   present_pages;  /* amount of memory (excluding holes) */  
  struct per_cpu_pageset __percpu *pageset;
    
  /* ... */
};

lru_lock:

   该管理区中 LRU 链表的自旋锁。在 2.4 里面,它是个被称为 pagemap_lru_lock 的全局锁。


active_list:

   该管理区中的活动链表。这个链表和第 10 章中描述的一样,但它现在不再是全局的,而是每个管理区一个了。


inactive_list:

   该管理区中的非活动链表。在 2.4 中,它是全局的。


refill_counter:

   是从 active_list 链表上一次性移除的页面的数量,而且只有在页面替换时才考虑它。


nr_active active_list:

   链表上的页面数量。


nr_inactive inactive_list:

   链表上的页面数量。


all_unreclaimable:

   当页面换出守护程序第二次扫描整个管理区里的所有页面时,依旧无法释放掉足够的页面,该字段置为 1。


pages_scanned:

   自最后一次大量页面被回收以来,被扫描过的页面数量。在 2.6 里面,页面被一次性释放掉,而不是单独地释放某个页面,在 2.4 里面采取的是后者。


pressure:

   权衡该管理区的扫描粒度。它是个衰退的均值,影页面扫描器回收页面时的工作强度。


   其他 3 个字段是新加进去的,但它们和管理区的尺度是有关系的。如下所示。


zone_start_pfn:

   管理区中 PFN 的起始位置。它取代了 2.4 中的 zone_start_paddr 和 zone_start_mapnr。


spanned_pages:

   该管理区范围内页面的数量,包括某些体系结构中存在的内存空洞。


present_pages :

   管理区中实际存在的页面的数量。对一些体系结构而言,其值和 spanned_pages 是一样的。


   另外一个新加的是 struct per_cpu_pageset,用于维护每个 CPU 上的一系列页面,以减少自旋锁的争夺。zone→pageset 字段是一个关于 struct per_cpu_pageset 的 NR_CPU 大小的数组,其中 NR_CPU 是系统中可以编译的 CPU 数量上限。而 per-cpu 结构会在本节的最后部分作更进一步的讨论。


   最后一个新加入 struct zone 的便是结构中零填充。在 2.6 内核 VM 的开发过程中,逐步认识到一些自旋锁会竞争得非常厉害,很难被获取。因为大家都知道有些锁总是成对地被获取,同时又必须保证它们使用不同的高速缓冲行,这是一种很普遍的缓冲编程技巧[Sea00]。该填充管理区在 struct zone 中由 ZONE_PADDING() 宏标记,并被用于保证 zone→lock,zone→lru_lock,以及 zone→pageset 字段使用不同的高速缓冲行。

(3)页面

   最值得注意的变更就是该字段的顺序被改变了,因此相关联的项目看起来都使用了同一个高速缓冲行。该字段除了新加了两个特性以外,本质上还是一样的。第一个特性就是采用了一个新的联合来创建 PTE 链。PTE 和页表管理相关联的会在第 3 章的结尾处进行讨论。另外一个特性便是添加了 page->private 字段,它包括了映射中详实的私有信息。比如,当页面是一个缓冲区页面时,该字段被用于存储一个指向 buffer_head 的指针。这意味着 page->buffers 字段也被移除掉了。最后一个重要的变更是 page→virtual 对高端内存的支持不再必要,只有在特定的体系结构需要时才会考虑它的存在。如何支持高端内存将在第 9 章进一步讨论。

(4)Per-CPU 上的页面链表

   在 2.4 里面,只有一个子系统会积极地尝试为任何对象维护 per-cpu 上的链表,而这个子系统就是 slab 分配器,在第 8 章会进行讨论。在 2.6 里面,这个概念则更为普遍一些,存在一个关于活动页面和不活动页面的正式概念。


   在  文件中声明的 struct per_cpu_pageset 具有一个字段,该字段是一个具有两个 per_cpu_pages 类型的元素的数组。该数组中第 0 位的元素是为活动页面预留的,而另一个元素则是为非活动页面预留的,其中活动页面和非活动页面决定了高速缓存中的页面的活跃状态。如果知道了页面不会马上被引用,比如 I/O 预读中,那么它们就会被置为

非活动页面。

   struct per_cpu_pages 维护了链表中目前已有的一系列页面,高极值和低极值决定了何时填充该集合或者释放一批页面,变量决定了一个块当中应当分配多少个页面,并最后决定在页面前的实际链表中分配多少个页面。


   为建立每个 CPU 的链表,需要有一个计算每个 CPU 上有多少页面的方法。struct page_state 具有一系列计算的变量,比如 pgalloc 字段,用于跟踪分配给当前 CPU 的 页面数量;而 pswpin 字段,用于跟踪读进交换的页面数量。该结构在  文件中作了详细的注解。函数 mod_page_state() 用于为运行中的 CPU 更新 page_state 字段,另外其还提供了辅助的三个宏,分别调用 inc_page_state(),dec_page_state() 和 sub_page_state()。

深入理解Linux虚拟内存管理(一)2:https://developer.aliyun.com/article/1597682

目录
相关文章
|
3月前
|
安全 Linux Shell
Linux上执行内存中的脚本和程序
【9月更文挑战第3天】在 Linux 系统中,可以通过多种方式执行内存中的脚本和程序:一是使用 `eval` 命令直接执行内存中的脚本内容;二是利用管道将脚本内容传递给 `bash` 解释器执行;三是将编译好的程序复制到 `/dev/shm` 并执行。这些方法虽便捷,但也需谨慎操作以避免安全风险。
196 6
|
14天前
|
缓存 Java Linux
如何解决 Linux 系统中内存使用量耗尽的问题?
如何解决 Linux 系统中内存使用量耗尽的问题?
|
14天前
|
缓存 Linux
如何检查 Linux 内存使用量是否耗尽?
何检查 Linux 内存使用量是否耗尽?
|
23天前
|
算法 Linux 开发者
深入探究Linux内核中的内存管理机制
本文旨在对Linux操作系统的内存管理机制进行深入分析,探讨其如何通过高效的内存分配和回收策略来优化系统性能。文章将详细介绍Linux内核中内存管理的关键技术点,包括物理内存与虚拟内存的映射、页面置换算法、以及内存碎片的处理方法等。通过对这些技术点的解析,本文旨在为读者提供一个清晰的Linux内存管理框架,帮助理解其在现代计算环境中的重要性和应用。
|
6天前
|
存储 算法 安全
深入理解Linux内核的内存管理机制
本文旨在深入探讨Linux操作系统内核的内存管理机制,包括其设计理念、实现方式以及优化策略。通过详细分析Linux内核如何处理物理内存和虚拟内存,揭示了其在高效利用系统资源方面的卓越性能。文章还讨论了内存管理中的关键概念如分页、交换空间和内存映射等,并解释了这些机制如何协同工作以提供稳定可靠的内存服务。此外,本文也探讨了最新的Linux版本中引入的一些内存管理改进,以及它们对系统性能的影响。
|
29天前
|
存储 缓存 监控
|
2月前
|
存储 缓存 监控
Linux中内存和性能问题
【10月更文挑战第5天】
40 4
|
2月前
|
算法 Linux
Linux中内存问题
【10月更文挑战第6天】
58 2
|
26天前
|
缓存 算法 Linux
Linux内核中的内存管理机制深度剖析####
【10月更文挑战第28天】 本文深入探讨了Linux操作系统的心脏——内核,聚焦其内存管理机制的奥秘。不同于传统摘要的概述方式,本文将以一次虚拟的内存分配请求为引子,逐步揭开Linux如何高效、安全地管理着从微小嵌入式设备到庞大数据中心数以千计程序的内存需求。通过这段旅程,读者将直观感受到Linux内存管理的精妙设计与强大能力,以及它是如何在复杂多变的环境中保持系统稳定与性能优化的。 ####
32 0
|
2月前
|
存储 缓存 固态存储