linux内核页表

简介:

曾 几何时,我一直被迷惑着,我知道所有进程和所有内核线程共享内核页表,也就是在页全局目录的768项以上的目录项指向的页表,我一直以为在创建新的进程的 时候创建新进程的页全局目录的时候会连带的把内核的基础全局目录复制过去,实际上这是合理的,当我看到网上很多文章都这么说时,我似乎感到一种欣慰:我太有才了!但是当我读到2.6.17的源代码时, 梦被打碎了,在pgd_alloc里面没有上述的动作,代码如下:

pgd_t *pgd_alloc(struct mm_struct *mm) 

int i
pgd_t *pgd = quicklist_alloc(0, GFP_KERNELpgd_ctor); 
if (PTRS_PER_PMD == 1 || !pgd) 
return pgd; 
for (i = 0; i < UNSHARED_PTRS_PER_PGD; ++i) { 
pmd_t *pmd = pmd_cache_alloc(i); 
if (!pmd) 
goto out_oom; 
paravirt_alloc_pd(__pa(pmd) >> PAGE_SHIFT); 
set_pgd(&pgd[i], __pgd(1 + __pa(pmd))); 

return pgd; 
out_oom: 
for (i--; i >= 0; i--) { 
pgd_t pgdent = pgd[i]; 
void* pmd = (void *)__va(pgd_val(pgdent)-1); 
paravirt_release_pd(__pa(pmd) >> PAGE_SHIFT); 
pmd_cache_free(pmd, i); 

quicklist_free(0, pgd_dtor, pgd); 
return NULL

我们看到,仅仅初始化了768之前的页目录项,没有内核页目录的踪迹,怎么回事呢?网上的那么多文章的依据又是什么呢?迷茫中,我想到了版本问题,于是我查阅了2.4的系列内核源代码,果然是那么回事: 
172 pgd_t *pgd_alloc(struct mm_struct *mm) 

int i
pgd_t *pgd = kmem_cache_alloc(pae_pgd_cachepGFP_KERNEL); 
if (pgd) { 
unsigned long pmd; 
for (i = 0; i < USER_PTRS_PER_PGDi++) { 
pmd = __get_free_page(GFP_KERNEL); 
if (!pmd) 
goto out_oom; 
clear_page(pmd); 
set_pgd(pgd + i__pgd(1 + __pa(pmd))); 

memcpy(pgd + USER_PTRS_PER_PGD
swapper_pg_dir + USER_PTRS_PER_PGD
(PTRS_PER_PGD - USER_PTRS_PER_PGD) * sizeof(pgd_t)); 

return pgd; 
out_oom: 
for (i--; i >= 0; i--) 
free_page((unsigned long)__va(pgd_val(pgd[i])-1)); 
kmem_cache_free(pae_pgd_cachep, pgd); 
return NULL

看起来比2.6的内核长很多,这么做合理是合理,但是有必要吗?用户进程真的会那么频繁的进入内核从而访问内核吗?想想malloc库函数,再想想库提供用户io缓冲区,如果你没有研究过前面的两个,那么mmap总该知道吧,为什么要用到前面的库函数,而且他们的库级别实现非常复杂,有自己的一套策略,有何诱惑可以值得库设计者付出这么大的代价呢?究其原因就是为了尽可能少的进行系统调用从而进入内核空间,要知道计算机的目的是为人服务,为人服务就是运行用户的程序,也就是用户进程,并不是为了让人去研究操作系统,操作系统内核只是提供服务,进行全局统筹管理,遗憾的是,他和用户进程是共享 
处理器资源的,这就要求它必须在最短的时间内完成自己的任务,全程只需分清一个主次关系,用户进程为主,内核运行为辅,用户不求助,内核别插手用户事务,只有当用户真正要内核时,内核再挺身而出,这样就把内核事务拖到了不能再拖为止,于是乎再拷掠前面的问题时我想到了缺页中断,下面看看缺页中断是怎么处理的: 
asmlinkage void do_page_fault(struct pt_regs *regs, unsigned long error_code) 

...... 
if (unlikely(address >= TASK_SIZE)) { 
if (!(error_code & 5)) 
goto vmalloc_fault; 
...... 
vmalloc_fault: 

...... 
int index = pgd_index(address);//得到缺页地址应该所在的页全局目录的目录项索引 
pgd_t *pgd, *pgd_k; 
pmd_t *pmd, *pmd_k; 
pte_t *pte_k; 
asm("movl %%cr3,%0":"=r" (pgd));//读出当前进程的页全局目录的位置 
pgd = index + (pgd_t *)__va(pgd);//得到具体的对应于缺页地址的目录项 
pgd_k = init_mm.pgd + index;//swapper_pgd_dir中队应的目录项 
if (!pgd_present(*pgd_k))//如果swapper_pgd_dir模板中都没有,准备后事吧 
goto no_context;//善后 
...... 
pmd = pmd_offset(pgd, address);//以下的分析方法同上 
pmd_k = pmd_offset(pgd_k, address); 
if (!pmd_present(*pmd_k)) 
goto no_context;//善后 
set_pmd(pmd, *pmd_k); 
pte_k = pte_offset_kernel(pmd_k, address);//内核和用户进程共享内核页表,因此以下也就没有set_pmd(pmd, *pmd_k)之类的了 
if (!pte_present(*pte_k)) 
goto no_context; 
return;//最终引起缺页的地址的MMU元素被创建,访问重新开始 


以上的分析应该很明了了,在此再小声说一句,网上的文章只是作者的理解,仅仅可以帮你理解问题,真正解决问题,你还得自己来,比如读内核,你必须自亲自阅读才能悟道。


 本文转自 dog250 51CTO博客,原文链接:http://blog.51cto.com/dog250/1274053


相关文章
|
3月前
|
缓存 Linux 开发者
Linux内核中的并发控制机制
本文深入探讨了Linux操作系统中用于管理多线程和进程的并发控制的关键技术,包括原子操作、锁机制、自旋锁、互斥量以及信号量。通过详细分析这些技术的原理和应用,旨在为读者提供一个关于如何有效利用Linux内核提供的并发控制工具以优化系统性能和稳定性的综合视角。
|
3月前
|
缓存 负载均衡 算法
深入探索Linux内核的调度机制
本文旨在揭示Linux操作系统核心的心脏——进程调度机制。我们将从Linux内核的架构出发,深入剖析其调度策略、算法以及它们如何共同作用于系统性能优化和资源管理。不同于常规摘要提供文章概览的方式,本摘要将直接带领读者进入Linux调度机制的世界,通过对其工作原理的解析,展现这一复杂系统的精妙设计与实现。
163 8
|
3月前
|
算法 Linux 调度
深入理解Linux内核调度器:从基础到优化####
本文旨在通过剖析Linux操作系统的心脏——内核调度器,为读者揭开其高效管理CPU资源的神秘面纱。不同于传统的摘要概述,本文将直接以一段精简代码片段作为引子,展示一个简化版的任务调度逻辑,随后逐步深入,详细探讨Linux内核调度器的工作原理、关键数据结构、调度算法演变以及性能调优策略,旨在为开发者与系统管理员提供一份实用的技术指南。 ####
116 4
|
30天前
|
安全 Linux 测试技术
Intel Linux 内核测试套件-LKVS介绍 | 龙蜥大讲堂104期
《Intel Linux内核测试套件-LKVS介绍》(龙蜥大讲堂104期)主要介绍了LKVS的定义、使用方法、测试范围、典型案例及其优势。LKVS是轻量级、低耦合且高代码覆盖率的测试工具,涵盖20多个硬件和内核属性,已开源并集成到多个社区CICD系统中。课程详细讲解了如何使用LKVS进行CPU、电源管理和安全特性(如TDX、CET)的测试,并展示了其在实际应用中的价值。
|
1月前
|
Ubuntu Linux 开发者
Ubuntu20.04搭建嵌入式linux网络加载内核、设备树和根文件系统
使用上述U-Boot命令配置并启动嵌入式设备。如果配置正确,设备将通过TFTP加载内核和设备树,并通过NFS挂载根文件系统。
93 15
|
3月前
|
缓存 并行计算 Linux
深入解析Linux操作系统的内核优化策略
本文旨在探讨Linux操作系统内核的优化策略,包括内核参数调整、内存管理、CPU调度以及文件系统性能提升等方面。通过对这些关键领域的分析,我们可以理解如何有效地提高Linux系统的性能和稳定性,从而为用户提供更加流畅和高效的计算体验。
96 17
|
2月前
|
算法 Linux
深入探索Linux内核的内存管理机制
本文旨在为读者提供对Linux操作系统内核中内存管理机制的深入理解。通过探讨Linux内核如何高效地分配、回收和优化内存资源,我们揭示了这一复杂系统背后的原理及其对系统性能的影响。不同于常规的摘要,本文将直接进入主题,不包含背景信息或研究目的等标准部分,而是专注于技术细节和实际操作。
|
2月前
|
存储 缓存 网络协议
Linux操作系统的内核优化与性能调优####
本文深入探讨了Linux操作系统内核的优化策略与性能调优方法,旨在为系统管理员和高级用户提供一套实用的指南。通过分析内核参数调整、文件系统选择、内存管理及网络配置等关键方面,本文揭示了如何有效提升Linux系统的稳定性和运行效率。不同于常规摘要仅概述内容的做法,本摘要直接指出文章的核心价值——提供具体可行的优化措施,助力读者实现系统性能的飞跃。 ####
|
2月前
|
监控 算法 Linux
Linux内核锁机制深度剖析与实践优化####
本文作为一篇技术性文章,深入探讨了Linux操作系统内核中锁机制的工作原理、类型及其在并发控制中的应用,旨在为开发者提供关于如何有效利用这些工具来提升系统性能和稳定性的见解。不同于常规摘要的概述性质,本文将直接通过具体案例分析,展示在不同场景下选择合适的锁策略对于解决竞争条件、死锁问题的重要性,以及如何根据实际需求调整锁的粒度以达到最佳效果,为读者呈现一份实用性强的实践指南。 ####
|
2月前
|
缓存 监控 网络协议
Linux操作系统的内核优化与实践####
本文旨在探讨Linux操作系统内核的优化策略与实际应用案例,深入分析内核参数调优、编译选项配置及实时性能监控的方法。通过具体实例讲解如何根据不同应用场景调整内核设置,以提升系统性能和稳定性,为系统管理员和技术爱好者提供实用的优化指南。 ####