多张图解,一扫你对多线程问题本质的所有误区

Posted 华为云开发者联盟

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了多张图解,一扫你对多线程问题本质的所有误区相关的知识,希望对你有一定的参考价值。

摘要: 本文并不讨论happends-before模型,只讨论底层原理,希望借着理解volatile,去理解一下它和CPU之间的关系

本文分享自华为云社区《​​当我深度探究了volatile的底层原理后,决定用超多的图解来一扫你对多线程问题本质的所有误区​​》,作者:breakDawn 。

《深入理解Java虚拟机》第二版中,关于volatile的原理,特地先讲述了如下图所示的JMM内存模型:

多张图解,一扫你对多线程问题本质的所有误区_volatile

它用了8种内存操作,以及多种规则,来告诉你特定情况下线程间的数据会如何同步。

然而这个模型实际上已经在JDK5之后的虚拟机规范中被废弃了。

最新官方文档中是采用“happens-before”模型来帮助java程序员分析多线程环境下的运行情况。关于happends-before模型的详细解释,建议阅读《java并发编程的艺术》一书的第三章节。

本文并不讨论happends-before模型,只讨论底层原理,希望借着理解volatile,去理解一下它和CPU之间的关系。关于这部分内容,网上其实有很多错误的解读,根本原因在于没有从真正底层运行的原理考虑,导致了很多误区的产生。

本文将为你解答一下三大误区问题:

  1. MESI缓存一致性,为什么要设置4种状态这么复杂?是否都是同步、阻塞地保证缓存一致?
  2. 更新变量后,另一个线程真的永远不可见吗?多线程问题的本质是什么?
  3. volatile保证一致性的真正底层运行逻辑是什么?

以上问题,我将从CPU的层面,以超长图解和文字的形式,为你完整呈现。

目录(社区的markdown功能不支持[toc]。。):

  1. 为什么需要这个JMM模型?用来做什么的?
  2. 上述模型和背后操作系统、CPU实现有什么关系?工作内存对应什么,主内存对应什么?
  3. 什么是CPU缓存?CPU缓存长什么样?
  4. 2个CPU同时更新数据时,有什么办法避免同时修改主存?
  5. MESI协议超级详解
  1. 为什么要设计独占状态?
  2. 为什么CPU2对a值的获取,能够修改CPU1的状态?
  3. 修改完M状态后,发生了什么?是直接同步回内存吗?
  4. 不可见的误区例子
  1. 重头戏:有MESI保证可见性的下,为什么还有会多线程问题?
  2. CPU1等待其他CPU清空缓存的阻塞等待行为会不会太慢了?
  3. 有什么办法能加快响应速度Invalid消息的响应速度呢?
  4. 多线程问题与StoreBuffer、Invalid-Queue之间的关系
  5. volatile又是如何避免CPU更新延迟问题的?
  6. 图解总结

为什么需要这个JMM模型?用来做什么的?

这是为了给java开发者提供屏蔽平台差异性的、统一的多线程执行语义

不同的操作系统或者不同的CPU,其对多线程并发问题的支持情况是不同的,但jvm尽量在背后将其实现成一套统一的逻辑。

即你按照我的关键字操作,就可以像JMM模型里那样运作,不需要关心背后的CPU怎么跑的

上述模型和背后操作系统、CPU实现有什么关系?工作内存对应什么,主内存对应什么?

多张图解,一扫你对多线程问题本质的所有误区_volatile_02

  • 主内存对应于java堆中的对象实例部分(物理硬件的内存)
  • 工作内存对应于虚拟机栈中的部分区域( 寄存器,高速缓存, 线程主要访问读写的都是工作内存)

什么是CPU缓存?CPU缓存长什么样?

CPU缓存可以理解为一个容量有限的哈希表。

将某地址数据根据地址做哈希,映射到缓存的某一行,并且有替换的情况。而划分两列,则是避免一出现hash冲突,就马上淘汰原内容的情况。因此增加了备用列。通过这样一个多行两列的结构,根据内存地址实现了缓存的功能。

多张图解,一扫你对多线程问题本质的所有误区_volatile_03

2个CPU同时更新数据时,有什么办法避免同时修改主存?

  • 一种方式是使用总线锁:确保CPU在持有总线锁期间,处理器可以独占任何共享内存。

总线锁的代价是开销很大,其他CPU会一直在等待总线释放,读和写操作都无法处理。

  • 另一种方式是缓存锁,锁住各自的缓存,并通过缓存一致性协议MESI来进行和主存的同步。

MESI协议超级详解

画了很多张图,顺便带上很多文字,来解释MESI协议的原理:

首先,CPU1和CPU2中的缓存都是空的, 因此缓存状态位是“I”(Invalid),后面会相继提到各个状态的变化。

多张图解,一扫你对多线程问题本质的所有误区_多线程_04

此时主存会将a的数据返回给CPU1, 并把CPU1的缓存状态设置为独占E(Exclude)

多张图解,一扫你对多线程问题本质的所有误区_java_05

为什么要设计独占状态?

目的是为了减少不必要的全局同步消息。

当这个a变量只有CPU1使用时,无论CPU1怎么修改,也只有CPU1在查看,没必要把信息同步给其他CPU,从而提升了效率, 对于一些不参与竞争的变量来说,非常有用。

好,独占的问题搞定,那么当CPU2也读取时,会发生什么?

此时就会不再是独占状态了,2个CPU同时被修改为共享状态S(Share)

多张图解,一扫你对多线程问题本质的所有误区_多线程_06

为什么CPU2对a值的获取,能够修改CPU1的状态?

这是因为CPU可以通过总线广播+监听消息来变更状态, 也称嗅探机制。即CPU核心都会经常监听总线上的广播事件,根据事件(消息)类型,来做不同的应对。

因此当CPU2更改后,总线会广播read消息,当CPU1收到read消息,并确认这个数据的地址和自己缓存中的地址是一致的时候,就会修改状态为S了。

上述问题搞定,再看最关键的修改缓存的部分了!

  1. 当CPU1触发对a变量的修改时,会先发送一个Invalid消息。
  2. CPU1此时会等待不动,停止任何操作,类似于阻塞了,它在等待其他CPU给他回应。
  3. 当其他的CPU收到Invalid消息时,会将缓存中的a变量修改为I(Invalid)无效状态
  4. 当所有CPU都处理完成时,总线为CPU1返回Invalid ack消息,CPU1才放心的将S状态修改为了M(modify)状态。

结合下面的图进行阅读更佳,注意图中的序号:

多张图解,一扫你对多线程问题本质的所有误区_缓存_07

很容易想到, 要将其他CPU设置为无效的原因,是为了保证其他CPU后面再次试图取a值时,取到的是最新的,而不是缓存的错误数据。

修改完M状态后,发生了什么?是直接同步回内存吗?

不是的!M状态此时就像“独占状态”一样,贪婪地占有这个缓存,后续的修改、读取,都直接读这个缓存,不再走任何总线

其目的和独占状态E一样,都是为了减少非竞争情况下不必要的总线消耗

多张图解,一扫你对多线程问题本质的所有误区_volatile_08

那么什么时候Modify状态会变化呢?

当其他的CPU试图获取a值,就会发生变化。其过程与 Exclude独占状态到Share状态 是类似的

多张图解,一扫你对多线程问题本质的所有误区_java_09多张图解,一扫你对多线程问题本质的所有误区_volatile_10

上面的内容给我一种感觉,MESI协议中,一直在给我们传达一个信息:MESI设置那么多状态,主要是为了避免每次都竞争。竞争只是偶然发生的,我们要尽可能少地乱锁总线!

不可见的误区例子

从上面可以看到,当我们修改缓存时,会通过触发对其他缓存的无效化,达到变量对其他线程“可见”的效果。
因此,MESI缓存一致性协议已经实现了缓存的可见性,

下面这种例子中,当flag=true时, 其他CPU通过MESI协议,是能够感知到flag的变化的,因为缓存一定会在那个时刻被设置为无效,从而获取最新的数据。

class A 
static boolean flag = false;
static int num = 0;
public static void main(String[] args) throws InterruptedException
new Thread(()->
while (!flag)
num++;

).start();
flag = true;

//输出结果
1255362997

重头戏:有MESI保证可见性的下,为什么还有会多线程问题?

首先可以看这个知乎问题的回答,如果看不懂,可以看我为你整理的详细解释:

​https://www.zhihu.com/question/277395220​

每个java线程有自己的寄存器。
线程寄存器和CPU缓存的关系?

上面的MESI协议图中,其实缺少了2个关键的优化,这2个优化点,也成了可见性问题的根源。
为了好好讲清楚这2个优化点带来的影响,我特地放到这里才讲述,也将会帮助你大大理解“可见性”问题的本质!

首先我们回到CPU1修改a值时的那张图:

多张图解,一扫你对多线程问题本质的所有误区_数据_11

里面提到,CPU1会等待所有CPU都将状态位置为I(无效)后,才开始修改状态并更新。那么有个问题:

CPU1等待其他CPU清空缓存的阻塞等待行为会不会太慢了?

如果CPU1后面有好几条和a无关的指令(例如b=3,d=e等),都在为了等待a的更新而不执行,未免太浪费时间了!

因此MESI设计了一个叫做 “StoreBuffer” 的东西,它会接收CPU1的修改动作,并由StoreBuffer来触发“阻塞等待->全部收到->修改状态M”的动作。

而CPU1则继续管自己去执行后续与a无关的指令。因此StoreBuffer就像是一个异步的“生产者消息队列”。,如下所示:

多张图解,一扫你对多线程问题本质的所有误区_多线程_12

但是还有个问题,因为是等待所有CPU将a状态改为I,这个修改动作是需要时间的。

如果有一个CPU修改的比较慢,可能会导致 StoreBuffer这个生产者队列出现队满的情况,于是继续引发了阻塞。

有什么办法能加快响应速度Invalid消息的响应速度呢?

那就是再引入一个“异步的消费者队列”,名叫Invalid Queue

这样其他CPU收到消息时,先别急着处理,而是存到这个Queue中,然后直接返回Invalid消息,这样响应就变快了! 也就是更新动作,和失效消息的接收,都加了一个队列!

如下图所示:

多张图解,一扫你对多线程问题本质的所有误区_缓存_13

多线程问题与StoreBuffer、Invalid-Queue之间的关系

终于来到了关键的部分了。

从刚才的描述中,可以看到CPU引入了2个异步的队列,来处理数据的更新动作。

那么就可能存在赋值的动作被放入异步队列,导致延迟触发的情况。

而正是这个延迟放入的动作,可能导致数据延迟修改,即使没有发生指令重排序。

这样干讲比较难懂,还是需要结合代码和图解。

首先是这个经典的多线程代码:

class ReorderExample 
int a = 0;
boolean flag = false;
public void writer()
a = 1; // 1
flag = true; // 2

Public void reader()
while (flag != true) // 3
;

int c = a * 2; // 4
…………

按照设想,程序员本是希望有如下的表现:

多张图解,一扫你对多线程问题本质的所有误区_volatile_14

但是事与愿违,当reader方法中离开了flag循环时,a的值仍然是初始化值0,导致c的值为0。

那么在了解了刚才的CPU原理后,我们终于可以开始分析这段代码为什么会发生这种问题了:

1、当线程writer执行a=1时,CPU要做更新,会通过上面提到的异步机制进行更新。如果这个CPU此时堆积了很多的写操作,会导致a=1这个动作在异步队列中处于等待。

多张图解,一扫你对多线程问题本质的所有误区_volatile_15

2、时间片切换,线程writer切到了另一个CPU上

多张图解,一扫你对多线程问题本质的所有误区_缓存_16

注意一个很重要的点:线程执行指令,并非只在1个CPU上运行,是可以通过时间片轮转切换的。因此CPU和线程并非完全绑定的关系

3、flag=true动作在CPU2上迅速响应,很快完成了缓存一致性

多张图解,一扫你对多线程问题本质的所有误区_数据_17

4、reader线程读到了最新的flag,却没有读到新的a,导致了a还在用旧的值。

多张图解,一扫你对多线程问题本质的所有误区_多线程_18

因此可以看到,正是CPU之间缓存更新的延迟,导致了多线程不同步问题的发生

volatile又是如何避免CPU更新延迟问题的?

这里不谈论那让人费解的内存屏障, 只要记住一点:对于volatile变量,一旦更新,不会走CPU异步更新,而是在这个CPU阻塞住,直到写动作完整完成,才会继续下一个指令的运行

本质上是利用的#LOCK指令。

它的作用就是必须等待该变量的storeBuffer的清空,读取时也必须等待InvalidQueue的清空,才能去做写和读。从而保证不会出现因异步导致的多线程不同步问题

图解总结

写文章不容易,学习也不容易,给我点个关注点个赞,未来会持续更新具有思考深度的学习文章。欢迎在华为云社区共同交流和学习。

MESI缓存一致性原理图解如下:

多张图解,一扫你对多线程问题本质的所有误区_缓存_19

多线程同步问题如下:

多张图解,一扫你对多线程问题本质的所有误区_缓存_20


​点击关注,第一时间了解华为云新鲜技术~​

以上是关于多张图解,一扫你对多线程问题本质的所有误区的主要内容,如果未能解决你的问题,请参考以下文章

面试官:你对多线程熟悉吗,谈谈线程安全中的原子性,有序性和可见性?

谈谈你对多进程,多线程,以及协程的理解,项目是否用??

java 可见性简单总结

小明谈谈你对多线程的理解建议收藏

谈谈你对Netty服务端的两个线程池的理解?

你对微信小程序认知有多少?