史上最全的Java并发系列之Java内存模型

简介: 前言文本已收录至我的GitHub仓库,欢迎Star:github.com/bin39232820…种一棵树最好的时间是十年前,其次是现在

絮叨


昨天把一些底层原理的东西讲了一下,并且昨天也简单的提了一下Java内存模型,今天就让我们好好的啃一下它把,下面是前面的章节链接:

内存模型基础


并发编程的两个关键问题

  • 线程之间如何通信? 命令式编程中线程的通信机制主要是以下两种:
  • 共享内存 的并发模型:通过 读写内存中的公共状态 来进行隐式通信。
  • 消息传递 的并发模型:没有公共状态,只能 通过发送消息来显示的进行通信。
  • 线程之间如何同步? 同步是指 程序中用于控制不同线程间操作发生相对顺序 的机制。
  • 共享内存 的并发模型:同步时显示进行的。我们必须显示指定某段代码需要在线程直线互斥执行。
  • 消息传递 的并发模型:由于消息发送必须在消息接收之前,因此同步时隐式的。

Java并发 采用的是 共享内存模型,Java线程之前的通信总是隐式进行的。


Java内存模型的抽象结构

在Java中,所有 实例域、静态域 和 数组元素 都储存在堆内存中,堆内存在线程之前共享。 本文用 共享变量 统一描述 实例域、静态域 和 数组元素 。

局部变量 、方法定义参数、异常处理器参数 不会在内存之间共享,他们不会有内存可见性问题,也不受内存模型影响。

Java线程通信由Java内存模型(简称 JMM)控制,JMM 决定一个线程对共享变量的写入何时对另一个线程可见。 从抽象角度看,JMM定义了 线程 和 主内存 之间的抽象关系:线程之间的共享变量储存在主内存中,每个线程都有一个私有的本地内存,本地内存储存了 该线程 以读写共享变量的副本。


从上图来看,线程A和线程B需要通信的话,需要经历以下步骤:

  1. 线程A 把 本地内存A 中的 共享变量副本 刷新到 主内存 中。
  2. 线程B 去读取 主内存 中 线程A 刷新过的 共享变量。

从整体来看,这两个步骤实质上是线程A向线程B发送消息,而通信必须经过主内存。 JMM 通过控制主内存与每个线程的本地内存之间的交互,来提供内存可见性的保证。


从源代码到指令序列的重排序

执行程序的时候,为了提高性能,编译器 和 处理器 常常会对指令做 重排序。主要有以下三类:

  • 编译器优化的重排序 :编译器在 不改变单线程程序语义 的前提下,可以重新安排语句的执行顺序。
  • 指令级并行的重排序 : 现代处理器采用 并行技术来将多条指令重叠执行,如果不存在数据依赖性,处理器可以改变对应机器指令的执行顺序。
  • 内存系统的重排序 : 由于处理使用缓存和读写缓冲区,这使得加载和存储操作看上去可能乱序执行。

以下描述了源代码到最终执行的指令序列的示意图:

上图中的 1 属于 编译器重排序,2 和 3 属于 处理器重排序。这些重排序可能会导致多线程程序出现内存可见性问题。

对于编译器重排序, JMM的编译器重排序规则 会禁止特定类型的编译器重排序。 对于处理器重排序,JMM的处理器重排序规则 会要求编译器在生成指令序列时,插入特定类型的内存屏障指令,通过内存屏障指令来禁止特定类型的处理器重排序。

什么意思呢,给大家解释一下,就是我们有很多关键字的语意可以禁止重排序


内存屏障

由于现代的操作系统都是多处理器.而每一个处理器都有自己的缓存,并且这些缓存并不是实时都与内存发生信息交换.这样就可能出现一个cpu上的缓存数据与另一个cpu上的缓存数据不一致的问题.而这样在多线程开发中,就有可能导致出现一些异常行为.  而操作系统底层为了这些问题,提供了一些内存屏障用以解决这样的问题.目前有4种屏障.

  • LoadLoad屏障:对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。
  • StoreStore屏障:对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。
  • LoadStore屏障:对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。
  • StoreLoad屏障:对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能

java中对内存屏障的使用在一般的代码中不太容易见到.常见的有两种.

  • 通过 Synchronized关键字包住的代码区域,当线程进入到该区域读取变量信息时,保证读到的是最新的值.这是因为在同步区内对变量的写入操作,在离开同步区时就将当前线程内的数据刷新到内存中,而对数据的读取也不能从缓存读取,只能从内存中读取,保证了数据的读有效性.这就是插入了StoreStore屏障
  • 使用了volatile修饰变量,则对变量的写操作,会插入StoreLoad屏障. 其余的操作,则需要通过Unsafe这个类来执行.


happens-before原则介绍

从 JDK5 开始,Java使用新的 JSR-133 内存模型。 JSR-133 使用 happens-before 的概念来阐述操作之间的内存可见性。在 JMM 中,如果一个操作执行的结果需要对另一个操作可见,则这两个操作必须要存在happen-before关系 。 两个操作之间具有happens-before关系,并不意味着前一个操作必须妖在后一个操作之前执行!happens-before仅仅要求前一个操作(执行的结果)对后一个操作可见,且前一个操作按顺序排在第二个操作之前 加深理解

  • 如果一个操作happens-before另一个操作,那么第一个操作的执行结果将对第二个操作可见,而且第一个操作的执行顺序排在第二个操作之前(对程序员来说)
  • 如果两个操作之间存在happens-before关系,并不意味着Java平台的具体实现必须要按照happens-before关系指定的顺序来执行。如果重排序之后的执行结果,与按happens-before关系来执行的结果一致,那么这种重排序是允许的(对编译器和处理器来说)

总结来说,就是这样的一规则,它的规则约束,可以得到下面的结论

  • 一个线程中的每个操作happens-before于该线程中的任意后续操作
  • 对一个锁的解锁,happens-before于随后对这个锁的加锁
  • 对一个volatile域的写,happens-before于任意后续对这个volatile域的读
  • 如果A hapens-before B,且B happens-before C, 那么A happens-before C
  • 如果线程A执行操作ThreadB.start()(启动线程B),那么A线程的ThreadB.start()操作happens-before 于线程B中的任意操作
  • 如果线程A执行操作ThreadB.join()并成功返回,那么线程B中的任意操作happens-before 于线程A从ThreadB.join()操作成功返回
  • 对线程interrup()方法的调用, happens-before 于被中断线程的代码检测到中断事件的发生
  • 一个对象的初始化完成(构造函数执行结束)happens-before finalize()方法的开始

happens-before 是 JMM 最核心的概念。

重排序规则:只要不改变程序的执行结果(指的是单线程程序和正确同步的多线程程序),编译器和处理器怎么优化都行。


volatile的内存语义


理解volatile特性的一个好方法是把对volatile变量的单个读/写,看成是 使用同一个锁 对这些单个读/写操作做了同步。

volatile变量具有下列特性:

  • 可见性:总是能看到(任意线程)对这个volatile变量最后的写入。
  • 原子性:对任意单个volatile变量的读/写具有原子性,但类似于volatile++这种复合操作不具有原子性。
  • volatile写的内存语义:当写一个volatile变量时,JMM 会把该线程对应的本地内存中的共享变量值刷新到主内存。
  • volatile读的内存语义:当读一个volatile变量时,JMM 会把该线程对应的本地内存置为无效。线程接下来将从主内存中读取共享变量。
  • 它的缺点就是它只能对单个volatile变量的读写具有原子性,二锁是互斥行为,可以确保一个代码区域的执行原子性


锁的内存语义


锁是Java并发编程中最重要的同步机制。锁除了让临界区互斥执行外,还可以让释放锁的线程向获取同一个锁的线程发送消息。

当线程释放锁时,JMM会把该线程对应的本地内存中的共享变量刷新到主内存中。和 volatile 写 类似。

当线程获取锁时,JMM会把该线程对应的本地内存置为无效。和 volatile 读 类似。

锁释放和锁获取的内存语义总结:

  • 线程A释放一个锁,实质上是线程A向接下来将要获取这个锁的某个线程发出了(线程A对共享变量所做修改的)消息。
  • 线程B获取一个锁,实质上是线程B接收了之前某个线程发出的(在释放这个锁之前对共享变量所做修改的)消息。
  • 线程A释放锁,随后线程B获取这个锁,这个过程实质上是线程A通过主内存向线程B发送消息。


final域的内存语义


与前面介绍的锁和volatile相比,对final域的读和写更像是普通的变量访问。

对于final域,编译器 和 处理器 要遵守两个 重排序规则。

  • 在构造函数内对一个final域的写入,与随后把这个被构造对象的引用赋值给一个引用变量,这两个操作之间不能重排序。
  • 初次读一个包含final域的对象的引用,与随后初次读这个final域,这两个操作之间不能重排序。

反正我看得很蒙,不知道啥意思,读者有懂的,可以下面评论,


双重检查锁定与延迟初始化


双重检查锁定 示例代码:

private static Instance instance; //1
public static Instance getInstance() { //2
    if (instance == null) { //3
        synchronized (Instance.class) { //4
            if (instance == null) { //5
                instance = new Instance() //6
            }
        }
    }
    return instance;
}
复制代码


存在的问题: 在线程执行到第3行if (instance == null),代码读取到instance不为null时,instance引用的对象有可能还没有完成初始化。

  • 基于volatile的解决方案 只需要给变量 instance 添加 volatile 修饰符。
private volatile static Instance instance;
public static Instance getInstance() {
    if (instance == null) {
        synchronized (Instance.class) {
            if (instance == null) {
                instance = new Instance();
            }
        }
    }
    return instance;
}
复制代码


为什么可以呢?因为这个对象的修改是对其他线程可见的,所以其他线程的修改肯定是会失败的,等下次去更新的时候,发现已经有了,就直接去拿有的对象了

  • 基于类初始化的解决方案
public static class InstanceFactory {
    public static Instance getInstance() {
        // 这里将导致InstanceHolder类被初始化
        return InstanceHolder.instance;
    }
    private static class InstanceHolder {
        public static Instance instance = new Instance();
    }
}
复制代码


这个就是我们常写的单列模式

各种内存模型之间的关系

  • JMM 是一个语言级的内存模型。
  • 处理器内存模型 是硬件级的内存模型。
  • 顺序一致性内存模型 是一个理论参考模型。


JMM的内存可见性保证

按程序类型,Java程序的内存可见性保证可以分为下列3类:

  • 单线程程序:不会出现内存可见性问题。JMM为它们提供了最小安全性保障:线程执行时读取到的值,要么是之前某个线程写入的值,要么是默认值(0、null、false)。
  • 正确同步的多线程程序:程序的执行将具有顺序一致性。这是JMM关注的重点,JMM通过限制编译器和处理器的重排序来为程序员提供内存可见性保证。
  • 未同步/未正确同步的多线程程序:JMM为它们提供了最小安全性保障:线程执行时读取到的值,要么是之前某个线程写入的值,要么是默认值(0、null、false)。


结尾


第三章,介绍了JMM的内存模型,还有就是各种关键字的内存语义,也是讲理论的多,不过大家认真看,把这些抽象的概念具体化,那么等你下次去用的时候,或者面试的时候,就不会那么难了。

因为博主也是一个开发萌新 我也是一边学一边写 我有个目标就是一周 二到三篇 希望能坚持个一年吧 希望各位大佬多提意见,让我多学习,一起进步。


相关文章
|
1月前
|
Java 大数据 Go
从混沌到秩序:Java共享内存模型如何通过显式约束驯服并发?
并发编程旨在混乱中建立秩序。本文对比Java共享内存模型与Golang消息传递模型,剖析显式同步与隐式因果的哲学差异,揭示happens-before等机制如何保障内存可见性与数据一致性,展现两大范式的深层分野。(238字)
65 4
|
1月前
|
缓存 安全 Java
如何理解Java中的并发?
Java并发指多任务交替执行,提升资源利用率与响应速度。通过线程实现,涉及线程安全、可见性、原子性等问题,需用synchronized、volatile、线程池及并发工具类解决,是高并发系统开发的关键基础。(238字)
200 4
|
1月前
|
存储 缓存 Java
【深入浅出】揭秘Java内存模型(JMM):并发编程的基石
本文深入解析Java内存模型(JMM),揭示synchronized与volatile的底层原理,剖析主内存与工作内存、可见性、有序性等核心概念,助你理解并发编程三大难题及Happens-Before、内存屏障等解决方案,掌握多线程编程基石。
|
2月前
|
安全 Java 应用服务中间件
Spring Boot + Java 21:内存减少 60%,启动速度提高 30% — 零代码
通过调整三个JVM和Spring Boot配置开关,无需重写代码即可显著优化Java应用性能:内存减少60%,启动速度提升30%。适用于所有在JVM上运行API的生产团队,低成本实现高效能。
283 3
|
2月前
|
缓存 监控 Kubernetes
Java虚拟机内存溢出(Java Heap Space)问题处理方案
综上所述, 解决Java Heap Space溢出需从多角度综合施策; 包括但不限于配置调整、代码审查与优化以及系统设计层面改进; 同样也不能忽视运行期监控与预警设置之重要性; 及早发现潜在风险点并采取相应补救手段至关重要.
524 17
|
3月前
|
存储 监控 算法
Java垃圾回收机制(GC)与内存模型
本文主要讲述JVM的内存模型和基本调优机制。
|
3月前
|
存储 缓存 Java
Java数组全解析:一维、多维与内存模型
本文深入解析Java数组的内存布局与操作技巧,涵盖一维及多维数组的声明、初始化、内存模型,以及数组常见陷阱和性能优化。通过图文结合的方式帮助开发者彻底理解数组本质,并提供Arrays工具类的实用方法与面试高频问题解析,助你掌握数组核心知识,避免常见错误。
|
3月前
|
边缘计算 算法 Java
Java 绿色计算与性能优化:从内存管理到能耗降低的全方位优化策略与实践技巧
本文探讨了Java绿色计算与性能优化的技术方案和应用实例。文章从JVM调优(包括垃圾回收器选择、内存管理和并发优化)、代码优化(数据结构选择、对象创建和I/O操作优化)等方面提出优化策略,并结合电商平台、社交平台和智能工厂的实际案例,展示了通过Java新特性提升性能、降低能耗的显著效果。最终指出,综合运用这些优化方法不仅能提高系统性能,还能实现绿色计算目标,为企业节省成本并符合环保要求。
152 0
|
3月前
|
监控 Kubernetes Java
最新技术栈驱动的 Java 绿色计算与性能优化实操指南涵盖内存优化与能效提升实战技巧
本文介绍了基于Java 24+技术栈的绿色计算与性能优化实操指南。主要内容包括:1)JVM调优,如分代ZGC配置和结构化并发优化;2)代码级优化,包括向量API加速数据处理和零拷贝I/O;3)容器化环境优化,如K8s资源匹配和节能模式配置;4)监控分析工具使用。通过实践表明,这些优化能显著提升性能(响应时间降低40-60%)同时降低资源消耗(内存减少30-50%,CPU降低20-40%)和能耗(服务器功耗减少15-35%)。建议采用渐进式优化策略。
203 2
|
4月前
|
SQL 缓存 安全
深度理解 Java 内存模型:从并发基石到实践应用
本文深入解析 Java 内存模型(JMM),涵盖其在并发编程中的核心作用与实践应用。内容包括 JMM 解决的可见性、原子性和有序性问题,线程与内存的交互机制,volatile、synchronized 和 happens-before 等关键机制的使用,以及在单例模式、线程通信等场景中的实战案例。同时,还介绍了常见并发 Bug 的排查与解决方案,帮助开发者写出高效、线程安全的 Java 程序。
237 0