为什么进程切换比线程切换代价大,效率低?【TLB:页表缓存/快表】

简介: 为什么进程切换比线程切换代价大,效率低?【TLB:页表缓存/快表】

参考:

一、为什么进程切换比线程切换代价大,效率更低?

首先,先给出标题的答案(关键在于进程切换涉及到TLB的失效及更新,线程不涉及):

因为,每次进程切换时,都会涉及页表的切换,不过**切换页表这个操作本身是不太耗时的。但是在切换之后,TLB(页表缓存/快表)就失效了,所以在进行地址转化时就需要重新去查找页表,这就造成了程序运行的效率低下。
而同一个进程的线程之间是共用一个页表的,所以线程之间的切换是不需要切换页表的,因此线程切换不存在上述代价大,效率低的问题。**

其次,再来了解下几个基本概念:

  • 虚拟内存技术:提供一种虚拟地址到实际物理地址的映射,将连续的虚拟地址暴露给程序,而实际上他们在物理内存(比如内存条)上面是不连续的。

虚拟内存能够很好的帮助程序员避免麻烦的内存管理与冲突等问题,并且将内存作为模块化独立出来。

  • 虚拟内存地址:程序所使用的内存地址(Virtual Memory Address)。
  • 物理内存地址:实际存在硬件里面的空间地址(Physical Memory Address)。

二、内存分页与页表

  • 内存分页:是把整个虚拟内存和物理内存空间切成一段段固定大小的尺寸。这样一个连续并且尺寸固定的内存空间叫做(Page)。

在 Linux 下,页是访问内存的最小单位,每一页大小为 4KB

  • 页表:记录【进程 虚拟地址】与【内存 物理地址】的映射关系。

每个进程都拥有自己的虚拟地址空间,也拥有一个页表。
在这里插入图片描述
如果程序要访问虚拟地址时,由操作系统转换成不同的物理地址,这样不同的进程在运行时,写入的是不同的物理地址,这样就不会冲突了。

页表是存储在内存里的,而CPU芯片中的 内存管理单元 (MMU)就负责将虚拟内存地址转换成物理地址的工作。

而当进程访问的虚拟地址在页表中查不到时,系统会产生一个缺页异常,进入系统内核空间分配物理内存、更新进程页表,最后再返回用户空间,恢复进程的运行。

页表使用虚拟地址的页号作为索引,以找到实际物理存储器中的页号,即:key = 虚拟地址的页号, val = 实际物理存储器中的页号。索引的过程如下图:
在这里插入图片描述

三、TLB(页表缓存/快表)

大家都知道, 计算机中的cpu的处理速度是要远快于内存操作的,那么每次cpu要读取数据时都需要等待内存就绪才行,这在一定程度上限制了cpu的执行效率。

于是计算机科学家们根据局部性原理,就在 CPU 芯片中加入了一个专门存放程序最常访问页表项的 Cache 高速缓存,这个 Cache 就是 TLB(Translation Lookaside Buffer) ,通常称为 页表缓存转址旁路缓存快表等,可以极大提高地址转换速度,加速对于页表的访问。

  • 理解:TLB可以看作是一种硬件的哈希表,来快速查找 高速cache 中是否存在特定地址的数据,而其中应用到的内存淘汰策略则是常被提到的LRU内存淘汰策略。
  • 作用:可以加速页表读取,极大提高虚拟地址到物理地址的转换速度。
  • 过程:那么对于一次存取,就会有分 3 种的情况:

    • TLB hit:命中缓存直接访问内存取数据
    • TLB miss:未命中缓存,但是在内存中有对应页 → 【要再去页表中找地址】
    • TLB miss:同时内存中也没有对应页,发生缺页 → 【要向磁盘要数据,同时更新 TLB 和 页表】

总之,就是先查找 TLB,如果缺失,那么查找页表;还缺就是发生缺页了,需要通过磁盘加载所需数据到物理内存中。如果查找 TLB 命中,那么根据 TLB 获取物理地址,然后查找数据 cache,后续就算普通的 cache 查找了。

加入 TLB 之后,虚拟地址到物理地址的完整地址映射长这样:
在这里插入图片描述

最后,附上一张关于 TLB 的总流程图:
在这里插入图片描述

最后再补充一点:
对于一个内存地址是如何转换为实际的物理内存地址的呢? 其实分为 3 个步骤:

  • 把虚拟内存地址切分成页号偏移量
  • 根据页号,从页表里面查询对应的物理页号
  • 直接拿物理页号加上前面的偏移量,就得到了实际的物理内存地址

四、总结

  • 为什么进程切换比线程切换代价大,效率低?

    • 关键在于进程切换涉及到TLB的失效及更新,线程不涉及
  • 内存分页会把整个虚拟内存和物理内存空间切成一段段尺寸固定大小的在 Linux 下,页是访问内存的最小单位,占 4KB。
  • 页表记录【虚拟地址空间】与【物理地址空间】的映射关系。
  • 为了加速页表的读取,出现了一种存放 程序最常访问页表项的 Cache 高速缓存,称之为TLB,可以极大提高虚拟地址到物理地址的转换速度。
目录
相关文章
|
21天前
|
消息中间件 存储 缓存
【嵌入式软件工程师面经】Linux系统编程(线程进程)
【嵌入式软件工程师面经】Linux系统编程(线程进程)
34 1
|
7天前
|
存储 调度 C++
【操作系统】进程与线程的区别及总结(非常非常重要,面试必考题,其它文章可以不看,但这篇文章最后的总结你必须要看,满满的全是干货......)
【操作系统】进程与线程的区别及总结(非常非常重要,面试必考题,其它文章可以不看,但这篇文章最后的总结你必须要看,满满的全是干货......)
35 1
|
9天前
|
分布式计算 JavaScript 前端开发
多线程、多进程、协程的概念、区别与联系
多线程、多进程、协程的概念、区别与联系
20 1
|
16天前
|
存储 网络协议 算法
【进程与线程】最好懂的讲解
【进程与线程】最好懂的讲解
18 1
聊聊python多线程与多进程
为什么要使用多进程与多线程呢? 因为我们如果按照流程一步步执行任务实在是太慢了,假如一个任务就是10秒,两个任务就是20秒,那100个任务呢?况且cpu这么贵,时间长了就是浪费生命啊!一个任务比喻成一个人,别个做高铁,你做绿皮火车,可想而知!接下来我们先看个例子:
|
2天前
|
数据采集 Java Unix
10-多线程、多进程和线程池编程(2)
10-多线程、多进程和线程池编程
|
2天前
|
安全 Java 调度
10-多线程、多进程和线程池编程(1)
10-多线程、多进程和线程池编程
|
8天前
|
安全 Java Python
GIL是Python解释器的锁,确保单个进程中字节码执行的串行化,以保护内存管理,但限制了多线程并行性。
【6月更文挑战第20天】GIL是Python解释器的锁,确保单个进程中字节码执行的串行化,以保护内存管理,但限制了多线程并行性。线程池通过预创建线程池来管理资源,减少线程创建销毁开销,提高效率。示例展示了如何使用Python实现一个简单的线程池,用于执行多个耗时任务。
19 6
|
4天前
|
算法 API 调度
|
11天前
|
数据挖掘 调度 开发者
Python并发编程的艺术:掌握线程、进程与协程的同步技巧
并发编程在Python中涵盖线程、进程和协程,用于优化IO操作和响应速度。`threading`模块支持线程,`multiprocessing`处理进程,而`asyncio`则用于协程。线程通过Lock和Condition Objects同步,进程使用Queue和Pipe通信。协程利用异步事件循环避免上下文切换。了解并发模型及同步技术是提升Python应用性能的关键。
37 5

热门文章

最新文章

相关实验场景

更多