java线程之间的通信对程序开发人员是完全透明的,内存的可见性问题很容易困扰很多开发人员。本篇博文将揭开java内存模型的神秘面纱,来看看内存模型到底是怎样的。
并发编程模型的分类
并发编程中需要处理的两个关键问题:线程之间如何通信
线程之间如何同步
所谓通信是指线程之间以何种机制来交换信息,在命令式编程中,线程的通信机制有两种:共享内存(隐式通信:通过共享程序的公共状态,读-写内存中的公共状态实现)
消息传递(显示通信:线程间发送消息实现 ,比较典型的就是wait()和notify())
所谓同步,就是控制不同线程间操作发生相对顺序的机制:共享内存(同步是显示的,由程序开发人员显示的指定某段代码或者某个方法需要在线程之间互斥执行)。
消息传递(同步是隐式的,消息的发送必须在消息接收之前)。
java的并发采用的是共享内存模型,线程之间的通信是隐式执行的,同步需要开发人员显示进行控制。
JAVA内存模型(JMM)的抽象
JMM把java虚拟机内部划分为线程栈和堆。逻辑视图如下:
JMM逻辑视图.png
java中所有的实例域、静态域,数组元素都是存储在堆内存,堆内存在线程之间共享。而对象引用,局部变量、方法参数和异常处理器参数都是存在在栈内存,也就是线程栈中,线程栈中的变量仅对自己可见,对其他线程不可见。不同线程之间的通信由java内存模型(java memory model ,简称JMM)控制。JMM的抽象结构图,如下:
JMM内存模型抽象图.png
线程之间的共享变量存储在堆内存,每个线程都有私有的本地内存(线程栈),私有本地内存中存储了主内存中共享变量的拷贝,本地内存只是JMM的一个抽象概念,并不真实存在。
上图中线程A要与线程B通信的话,由于线程本地变量的不可见性,首先要将线程A中变量的更改,刷新到主内存中,然后线程B本地私有的共享变量副本失效,从新读取刷新的新值,才能完成。从上面的描述看,线程A向线程B通信,必须要经过主内存,JMM控制主内存与每个线程的本地变量的交互,来为java程序员提供内存的可见性。
硬件内存架构
软件最终还要运行在硬件上,看一下现代计算机硬件内存架构的简单图示:
硬件模型.png
现在的计算机一般都有两个或者多个CPU,其中有些还是多核心实现。
每个CPU都包含一系列的寄存器,它们是CPU内内存的基础。CPU在寄存器上执行操作的速度远大于在主存上执行的速度。这是因为CPU访问寄存器的速度远大于主存。
每个CPU可能还有一个CPU缓存层。实际上,绝大多数的现代CPU都有一定大小的缓存层。CPU访问缓存层的速度快于访问主存的速度,但通常比访问内部寄存器的速度还要慢一点。一些CPU还有多层缓存,但这些对理解Java内存模型如何和内存交互不是那么重要。只要知道CPU中可以有一个缓存层就可以了。
一个计算机还包含一个主存。所有的CPU都可以访问主存。主存通常比CPU中的缓存大得多。
CPU的高速缓存虽然解决了效率的问题,但是又带来了一个新的问题:数据一致性。当一个CPU需要读取主存时,它会将主存的部分读到CPU缓存中。它甚至可能将缓存中的部分内容读到它的内部寄存器中,然后在寄存器中执行操作,这样就不会使CPU直接与内存相连。当CPU需要将结果写回到主存中去时,它会将内部寄存器的值刷新到缓存中,然后在某个时间点将值刷新回主存。
Java内存模型和硬件内存架构之间的桥接
上面已经提到,Java内存模型与硬件内存架构之间存在差异。硬件内存架构没有区分线程栈和堆。对于硬件,所有的线程栈和堆都分布在主内中。部分线程栈和堆可能有时候会出现在CPU缓存中和CPU内部的寄存器中。如下图所示:
image.png
Java内存模型的基础原理
从源代码到指令序列的重排序
在程序执行时,为了提高程序的执行性能,编译器和处理器常常会对指令做重排序,换句话说程序的执行顺序和程序开发人员编写的顺序可能会存在差异,这是编译器和处理器对源代码做了优化。但是JMM的编译器重排序规则会禁止特定类型的编译器重排序,对于处理器的重排序,JMM的处理器重排序规则会要求java编译器在生成指令时,插入特定的内存屏障(Memory Barriers)指令,来禁止特定类型的处理器重排序。换句话说编译器和处理器的重排序都是可控的。
重排序分为三类:编译器重排序:编译器在不改变单线程程序语义的前提下,可以重新安排语句的执行顺序。
指令级重排序:现在的处理器都采用了并行技术,可以将多条执行重叠执行,如果不存在数据依赖性,可以改变语句对应机器语句的执行顺序。之所以存在数据依赖的语句不做重排序是因为改变顺序后将导致执行结果发生变化。
内存系统重排序:由于处理器使用缓存和读/写缓冲区,这使得加载和存储操作看上去可能是在乱序执行。
JMM属于语言级的内存模型,它确保在不同的编译器和不同的处理器平台上,通过禁止特定类型的编译器和处理器重排序,为程序员提供一致性的内存可见性保证。
重排序与内存屏障
为了保证内存可见性,Java编译器在生成指令序列的适当位置会插入内存屏障指令来禁止特定类型的处理器重排序。内存屏障又称为内存栅栏,是一个CPU指令:保证特定的操作顺序
影响某些数据的内存可见性
例如: volatile关键字 就是通过内存屏障实现的。
happens-before
JSP-133(内存模型)使用happens-before来阐述操作之间的内存可见性。在JMM中如果一个操作执行结果需要对另一个操作可见,那么这两个操作之间必须要存在happens-before关系。两个操作具有happens-before关系,并不意味着前一个操作必须要在后一个操作之间执行,happens-before仅仅要求前一个操作的执行结果对后一个操作可见。且前一个操作按顺序排在第二个操作的前面。
happens-before规则如下:程序顺序规则:一个线程中的每个操作,happens-before于线程中任意后续操作
监视器锁规则:对一个锁的解锁,happens-before于随后对这个锁的加锁
volatil变量规则:对一个volatile域的写,happens-before与任意后续对这个volatile域的读
传递性:如果A happens-before B ,且B happens-before C , 那么A happens-before C .
重排序
数据依赖
如果两个操作访问同一个变量,且这两个操作中有一个为写操作,此时这两个操作之间就存在数据的依赖性。写后读 a=1;b=a
写后写 a=1 ; a =2
读后写 a=b ; b =1
上面三种情况,只要重排序两个操作的执行顺序,程序的执行结果就会发生改变。编译器和处理器可能会对操作做重排序。做重排序时,会遵守数据依赖性,编译器和处理器不会改变存在数据依赖关系的两个操作的执行顺序,只针对单个处理器和单个线程而言。
as-if-serial语义
它的意思是不管怎么重排序,单线程执行的结果都不会发生变化。为了遵守as-if-serial语义,编译器和处理器都不会对存在数据依赖的语句执行重排序。
顺序一致性
数据竞争与顺序一致性保证
当程序未正确同步时,就可能存在数据竞争。在一个线程中写一个变量
在另一个线程中读同一个变量
而且读写没有通过同步来排序
顺序一致性内存模型
两大特性:一个线程中所有操作必须按照程序的顺序来执行
所有线程都只能看到一个单一的操作执行顺序。在顺序一致性内存模型中,每个操作都必须原子执行且立刻对所有线程可见。
同步程序的顺序一致性效果
同步程序的顺序一致性效果将于程序在顺序一致性模型中的执行结果相同。
未同步程序的执行特性
对于未同步或未正确同步的多线程程序,JMM只提供最小安全性。JMM不保证未同步的程序的执行结果与该程序在顺序一致性模型中的执行结果一致。
作者:起个名忒难
链接:https://www.jianshu.com/p/de47a2e49e5d