从Java视角理解系统结构 (一) CPU上下文切换

简介: 本文是从Java视角理解系统结构连载文章在高性能编程时,经常接触到多线程. 起初我们的理解是, 多个线程并行地执行总比单个线程要快, 就像多个人一起干活总比一个人干要快. 然而实际情况是, 多线程之间需要竞争IO设备, 或者竞争锁资源,导致往往执行速度还不如单个线程. 在这里有一个经常提及的概念就是: 上下文切换(Context Switch).

本文是从Java视角理解系统结构连载文章

在高性能编程时,经常接触到多线程. 起初我们的理解是, 多个线程并行地执行总比单个线程要快, 就像多个人一起干活总比一个人干要快. 然而实际情况是, 多线程之间需要竞争IO设备, 或者竞争锁资源,导致往往执行速度还不如单个线程. 在这里有一个经常提及的概念就是: 上下文切换(Context Switch).


上下文切换的精确定义可以参考: http://www.linfo.org/context_switch.html。下面做个简单的介绍. 多任务系统往往需要同时执行多道作业.作业数往往大于机器的CPU数, 然而一颗CPU同时只能执行一项任务, 如何让用户感觉这些任务正在同时进行呢? 操作系统的设计者巧妙地利用了时间片轮转的方式, CPU给每个任务都服务一定的时间, 然后把当前任务的状态保存下来, 在加载下一任务的状态后, 继续服务下一任务. 任务的状态保存及再加载, 这段过程就叫做上下文切换. 时间片轮转的方式使多个任务在同一颗CPU上执行变成了可能,但同时也带来了保存现场和加载现场的直接消耗。


(Note. 更精确地说, 上下文切换会带来直接和间接两种因素影响程序性能的消耗. 直接消耗包括: CPU寄存器需要保存和加载, 系统调度器的代码需要执行, TLB实例需要重新加载, CPU 的pipeline需要刷掉; 间接消耗指的是多核的cache之间得共享数据, 间接消耗对于程序的影响要看线程工作区操作数据的大小).

image.png

在linux中可以使用vmstat观察上下文切换的次数. 执行命令如下:

$ vmstat 1

procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----

r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa

1  0      0 45939444535601118192    0    0    14    12  238   30  6  192  1

0  0      0 45932124535681118816    0    0     0    96  958 1108  4  194  2

0  0      0 45933604535681118456    0    0     0     0  895 1044  3  195  0

1  0      0 45934084535681118456    0    0     0     0  929 1073  4  195  0

0  0      0 45934964535681118456    0    0     0     01133 1363  6  193  0

0  0      0 45935684535681118476    0    0     0     0  992 1190  4  195  0

vmstat 1指每秒统计一次, 其中cs列就是指上下文切换的数目. 一般情况下, 空闲系统的上下文切换每秒大概在1500以下.


对于我们经常使用的抢占式操作系统来说, 引起上下文切换的原因大概有以下几种: 1. 当前执行任务的时间片用完之后, 系统CPU正常调度下一个任务 2. 当前执行任务碰到IO阻塞, 调度器将挂起此任务, 继续下一任务 3. 多个任务抢占锁资源, 当前任务没有抢到,被调度器挂起,


继续下一任务 4. 用户代码挂起当前任务, 让出CPU时间 5. 硬件中断.

前段时间发现有人在使用futex的WAIT和WAKE来测试context switch的直接消耗(链接), 也有人使用阻塞IO来测试context switch的消耗(链接).那么Java程序怎么测试和观察上下文切换的消耗呢?


我做了一个小实验, 代码很简单, 有两个工作线程. 开始时,第一个线程挂起自己;

第二个线程唤醒第一个线程,再挂起自己; 第一个线程醒来之后唤醒第二个线程,

再挂起自己. 就这样一来一往,互相唤醒对方, 挂起自己. 代码如下:

import java.util.concurrent.atomic.AtomicReference;

import java.util.concurrent.locks.LockSupport;

publicfinalclassContextSwitchTest {

   staticfinalintRUNS=3;

   staticfinalintITERATES=1000000;

   staticAtomicReferenceturn=newAtomicReference();

   staticfinalclassWorkerThreadextendsThread {

       volatile Thread other;

       volatileint nparks;

       publicvoidrun() {

           finalAtomicReferencet= turn;

           finalThreadother=this.other;

           if (turn == null || other == null)

               thrownewNullPointerException();

           intp=0;

           for (inti=0; i < ITERATES; ++i) {

               while (!t.compareAndSet(other, this)) {

                   LockSupport.park();

                   ++p;

               }

               LockSupport.unpark(other);

           }

           LockSupport.unpark(other);

           nparks = p;

           System.out.println("parks: " + p);

       }

   }

   staticvoidtest()throws Exception {

       WorkerThreada=newWorkerThread();

       WorkerThreadb=newWorkerThread();

       a.other = b;

       b.other = a;

       turn.set(a);

       longstartTime= System.nanoTime();

       a.start();

       b.start();

       a.join();

       b.join();

       longendTime= System.nanoTime();

       intparkNum= a.nparks + b.nparks;

       System.out.println("Average time: " + ((endTime - startTime) / parkNum)

               + "ns");

   }

   publicstaticvoidmain(String[] args)throws Exception {

       for (inti=0; i < RUNS; i++) {

           test();

       }

   }

}

编译后,在我自己的笔记本上( Intel(R) Core(TM) i5 CPU M 460 @ 2.53GHz, 2

core, 3M L3 Cache) 用测试几轮,结果如下:

java -cp . ContextSwitchTest

parks: 953495

parks: 953485

Average time: 11373ns

parks: 936305

parks: 936302

Average time: 11975ns

parks: 965563

parks: 965560

Average time: 13261ns

我们会发现这么简单的for循环, 线性执行会非常快,不需要1秒, 而执行这段程序需要几十秒的耗时. 每个上下文切换需要耗去十几us的时间,这对于程序吞吐量的影响很大.

同时我们可以执行vmstat 1 观查一下上下文切换的频率是否变快

$ vmstat 1

procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----

r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa

1  0      0 44249884579641154912    0    0    13    12  252   80  6  192  1

0  0      0 44204524579641159900    0    0     0     01586 2069  6  193  0

1  0      0 44076764579641171552    0    0     0     01436 1883  8  389  0

1  0      0 44029164579641172032    0    0     0    84 2298245792  9  485  2

1  0      0 44160244579641158912    0    0     0     0 95382198544 17 1073  0

1  1      0 44160964579641158968    0    0     0   116 79973159934 18  774  0

1  0      0 44203844579641154776    0    0     0     0 96265196076 15 1074  1

1  0      0 44030124579721171096    0    0     0   152 104321213537 20 1266  2

再使用strace观察以上程序中Unsafe.park()究竟是哪道系统调用造成了上下文切换:

$strace-fjava-cp.ContextSwitchTest

[pid  5969] futex(0x9571a9c,FUTEX_WAKE_OP_PRIVATE,1,1,0x9571a98, {FUTEX_OP_SET, 0, FUTEX_OP_CMP_GT, 1})=1

[pid  5968]  )       =0

[pid  5969] futex(0x9571ad4,FUTEX_WAIT_PRIVATE,949,NULL

[pid  5968] futex(0x9564368,FUTEX_WAKE_PRIVATE,1)=0

[pid  5968] futex(0x9571ad4,FUTEX_WAKE_OP_PRIVATE,1,1,0x9571ad0, {FUTEX_OP_SET, 0, FUTEX_OP_CMP_GT, 1}

[pid  5969]  )       =0

[pid  5968]  )       =1

[pid  5969] futex(0x9571628,FUTEX_WAIT_PRIVATE,2,NULL

果然还是futex.

再使用perf看看上下文对于Cache的影响:

$ perf stat -e cache-misses   java -cp . ContextSwitchTest

parks:999999

parks:1000000

Average time:16201ns

parks:998930

parks:998926

Average time:14426ns

parks:998034

parks:998204

Average time:14489ns

Performance counter stats for 'java -cp . ContextSwitchTest':

        2,550,605 cache-misses

     90.221827008 seconds time elapsed

1分半钟内有255万多次cache未命中.

嗯, 貌似太长了, 可以结束了.接下来会继续几篇博文继续分析一些有意思的东西.

(1) 从Java视角看内存屏障 (Memory Barrier)

(2) 从java视角看CPU亲缘性 (CPU Affinity)

等..敬请关注

PS. 其实还做了一个实验, 测试CPU Affinity对于Context Switch的影响.

$ taskset -c 0 java -cp . ContextSwitchTest

parks:992713

parks:1000000

Average time:2169ns

parks:978428

parks:1000000

Average time:2196ns

parks:989897

parks:1000000

Average time:2214ns

这个命令把进程绑定在0号CPU上,结果Context Switch的消耗小了一个数量级, 什么原因呢? 卖个关子, 在谈到CPU Affinity的博文再说 :)。


相关文章
|
7月前
|
存储 Java 编译器
深入理解Java虚拟机--类文件结构
本内容介绍了Java虚拟机与Class文件的关系及其内部结构。Class文件是一种与语言无关的二进制格式,包含JVM指令集、符号表等信息。无论使用何种语言,只要能生成符合规范的Class文件,即可在JVM上运行。文章详细解析了Class文件的组成,包括魔数、版本号、常量池、访问标志、类索引、字段表、方法表和属性表等,并说明其在Java编译与运行过程中的作用。
207 0
|
8月前
|
存储 缓存 程序员
软考软件评测师——计算机组成与体系结构(CPU指令系统)
本内容详细解析了计算机中央处理器(CPU)的核心架构及其关键组件的工作原理。首先介绍了CPU的四大核心模块:运算单元、控制单元、寄存器阵列和内部总线,并阐述其在数据处理中的核心职责。接着深入探讨了算术逻辑部件(ALU)的功能与专用寄存器的作用,以及通用寄存器对性能提升的意义。随后分析了控制单元的指令处理流程及特殊寄存器的功能。此外,还解析了寄存器系统的分类与设计特点,并对比了不同内存访问模式的特点与应用场景。最后,通过历年真题巩固相关知识点,帮助理解CPU各组件的协同工作及优化策略。
|
11月前
|
人工智能 JSON Java
列表结构与树结构转换分析与工具类封装(java版)
本文介绍了将线性列表转换为树形结构的实现方法及工具类封装。核心思路是先获取所有根节点,将其余节点作为子节点,通过递归构建每个根节点的子节点。关键在于节点需包含 `id`、`parentId` 和 `children` 三个属性。文中提供了两种封装方式:一是基于基类 `BaseTree` 的通用工具类,二是使用函数式接口实现更灵活的方式。推荐使用后者,因其避免了继承限制,更具扩展性。代码示例中使用了 Jackson 库进行 JSON 格式化输出,便于结果展示。最后总结指出,理解原理是进一步优化和封装的基础。
364 0
|
11月前
|
前端开发 Cloud Native Java
Java||Springboot读取本地目录的文件和文件结构,读取服务器文档目录数据供前端渲染的API实现
博客不应该只有代码和解决方案,重点应该在于给出解决方案的同时分享思维模式,只有思维才能可持续地解决问题,只有思维才是真正值得学习和分享的核心要素。如果这篇博客能给您带来一点帮助,麻烦您点个赞支持一下,还可以收藏起来以备不时之需,有疑问和错误欢迎在评论区指出~
Java||Springboot读取本地目录的文件和文件结构,读取服务器文档目录数据供前端渲染的API实现
|
11月前
|
存储 缓存 Linux
Linux系统中如何查看CPU信息
本文介绍了查看CPU核心信息的方法,包括使用`lscpu`命令和读取`/proc/cpuinfo`文件。`lscpu`能快速提供逻辑CPU数量、物理核心数、插槽数等基本信息;而`/proc/cpuinfo`则包含更详细的配置数据,如核心ID和处理器编号。此外,还介绍了如何通过`lscpu`和`dmidecode`命令获取CPU型号、制造商及序列号,并解释了CPU频率与缓存大小的相关信息。最后,详细解析了`lscpu`命令输出的各项参数含义,帮助用户更好地理解CPU的具体配置。
1410 8
|
11月前
|
传感器 监控 Java
Java代码结构解析:类、方法、主函数(1分钟解剖室)
### Java代码结构简介 掌握Java代码结构如同拥有程序世界的建筑蓝图,类、方法和主函数构成“黄金三角”。类是独立的容器,承载成员变量和方法;方法实现特定功能,参数控制输入环境;主函数是程序入口。常见错误包括类名与文件名不匹配、忘记static修饰符和花括号未闭合。通过实战案例学习电商系统、游戏角色控制和物联网设备监控,理解类的作用、方法类型和主函数任务,避免典型错误,逐步提升编程能力。 **脑图速记法**:类如太空站,方法即舱段;main是发射台,static不能换;文件名对仗,括号要成双;参数是坐标,void不返航。
449 5
|
缓存 安全 Linux
Linux系统查看操作系统版本信息、CPU信息、模块信息
在Linux系统中,常用命令可帮助用户查看操作系统版本、CPU信息和模块信息
2592 23
|
Windows
【Azure App Service】对App Service中CPU指标数据中系统占用部分(System CPU)的解释
在Azure App Service中,CPU占比可在App Service Plan级别查看整个实例的资源使用情况。具体应用中仅能查看CPU时间,需通过公式【CPU Time / (CPU核数 * 60)】估算占比。CPU百分比适用于可横向扩展的计划(Basic、Standard、Premium),而CPU时间适用于Free或Shared计划。然而,CPU Percentage包含所有应用及系统占用的CPU,高CPU指标可能由系统而非应用请求引起。详细分析每个进程的CPU占用需抓取Windows Performance Trace数据。
280 40
|
存储 缓存 前端开发
JavaEE初阶——初识EE(Java诞生背景,CPU详解)
带你从零入门JAVAEE初阶,Java的发展历程认识什么是cpu,cpu的工作原理,cpu是如何进行计算的,cpu的架构,指令集,cpu的核心,如何提升cpu的算力,cpu的指令,,cup的缓存,cpu的流水线
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质