名扬数据:剖析Disruptor:为什么会这么快?(二)神奇的缓存行填充
0,
经常提到一个短语Mechanical Sympathi这个短语也是Martin博客的标题(译注:Martin ThompsonMechanical Sympathi讲的底层硬件是如何运作的以及与其协作而非相悖的编程方式。注解:sympathi这里是共鸣、一致的含义)
上一篇文章中提到RingBuff后,收到一些关于RingBuff中填充高速缓存行的评论和疑问。由于这个适合用漂亮的图片来说明,所以我想这是下一个我该解决的问题了
译注:Martin Thompson很喜欢用Mechanical Sympathi这个短语,这个短语源于赛车驾驶,反映了驾驶员对于汽车有一种天生的感觉,所以他对于如何最佳的驾御它非常有感觉。
计算机入门
喜欢在LMA X工作的原因之一是这里工作让我明白从大学和A Level Comput所学的东西实际上还是有意义的做为一个开发者你可以逃避不去了解CPU数据结构或者大O符号 而我用了10年的职业生涯来忘记这些东西。但是现在看来,如果你知道这些知识并应用它能写出一些非常巧妙和非常快速的代码。
因此,对在学校学过的人是种复习,对未学过的人是个简单介绍。但是请注意,这篇文章包含了大量的过度简化。
CPU机器的心脏,最终由它来执行所有运算和程序。主内存(RA M数据(包括代码行)存放的地方。本文将忽略硬件驱动和网络之类的东西,因为Disruptor目标是尽可能多的内存中运行。
CPU和主内存之间有好几层缓存,因为即使直接访问主内存也是非常慢的如果你正在多次对一块数据做相同的运算,那么在执行运算的时候把它加载到离CPU很近的地方就有意义了比如一个循环计数-不想每次循环都跑到主内存去取这个数据来增长它吧)
越靠近CPU缓存越快也越小。所以L1缓存很小但很快(译注:L1表示一级缓存)并且紧靠着在使用它CPU内核。L2大一些,也慢一些,并且 仍然只能被一个单独的 CPU 核使用。L3现代多核机器中更普遍,仍然更大,更慢,并且被单个插槽上的所有 CPU 核共享。最后,拥有一块主存,由全部插槽上的所有 CPU 核共享。
当CPU执行运算的时候,先去L1查找所需的数据,再去L2然后是L3最后如果这些缓存中都没有,所需的数据就要去主内存拿。走得越远,运算耗费的时间就越长。所以如果你做一些很频繁的事,要确保数据在L1缓存中。
Martin和Mike QCon present演讲中给出了一些缓存未命中的消耗数据:
从CPU 大约需要的 CPU 周期 大约需要的时间
主存 约60-80纳秒
QPI 总线传输
between sockets, not drawn 约20ns
L3 cache 约40-45 cycles, 约15ns
L2 cache 约10 cycles, 约3ns
L1 cache 约3-4 cycles, 约1ns
寄存器 1 cycle
如果你目标是让端到端的延迟只有 10毫秒,而其中花80纳秒去主存拿一些未命中数据的过程将占很重的一块。
缓存行
现在需要注意一件有趣的事情,数据在缓存中不是以独立的项来存储的如不是一个单独的变量,也不是一个单独的指针。缓存是由缓存行组成的通常是 64字节(译注:这篇文章发表时常用处理器的缓存行是64字节的比较旧的处置器缓存行是32字节)并且它有效地引用主内存中的一块地址。一个Java long类型是8字节,因此在一个缓存行中可以存8个long类型的变量。
为了简化,将忽略多级缓存)
非常奇妙的如果你访问一个long数组,当数组中的一个值被加载到缓存中,会额外加载另外7个。因此你能非常快地遍历这个数组。事实上,可以非常快速的遍历在连续的内存块中分配的任意数据结构。第一篇关于ring buff文章中顺便提到过这个,解释了ring buff使用数组的原因。
因此如果你数据结构中的项在内存中不是相互相邻的链表,正在关注你呢)将得不到免费缓存加载所带来的优势。并且在这些数据结构中的每一个项都可能会出现缓存未命中。
不过,所有这种免费加载有一个弊端。设想你long类型的数据不是数组的一部分。设想它只是一个单独的变量。让我称它为head这么称谓它其实没有什么原因。然后再设想在类中有另一个变量紧挨着它让我直接称它为tail现在当你加载head缓存的时候,也免费加载了tail
听想来不错。直到意识到tail正在被你生产者写入,而head正在被你消费者写入。这两个变量实际上并不是密切相关的而事实上却要被两个不同内核中运行的线程所使用。
设想你消费者更新了head值。缓存中的值和内存中的值都被更新了而其他所有存储head缓存行都会都会失效,因为其它缓存中head不是最新值了请记住我必需以整个缓存行作为单位来处理(译注:这是CPU实现所规定的详细可参见深入分析Volatil实现原理)不能只把head标志为无效。
现在如果一些正在其他内核中运行的进程只是想读tail值,整个缓存行需要从主内存重新读取。那么一个和你消费者无关的线程读一个和head无关的值,被缓存未命中给拖慢了
当然如果两个独立的线程同时写两个不同的值会更糟。因为每次线程对缓存行进行写操作时,每个内核都要把另一个内核上的缓存块无效掉偏重新读取里面的数据。基本上是遇到两个线程之间的写冲突了尽管它写入的不同的变量。
这叫作“伪共享”译注:可以理解为错误的共享)因为每次你访问head也会得到tail而且每次你访问tail也会得到head这一切都在后台发生,并且没有任何编译警告会告诉你正在写一个并发访问效率很低的代码。
解决方案-神奇的缓存行填充
会看到Disruptor消除这个问题,至少对于缓存行大小是64字节或更少的处置器架构来说是这样的译注:有可能处置器的缓存行是128字 节,那么使用64字节填充还是会存在伪共享问题)通过增加补全来确保ring buff序列号不会和其他东西同时存在于一个缓存行中。
public long p1, p2, p3, p4, p5, p6, p7; // cache line padding
private volatile long cursor = INITIA L_CURSOR_VA LUE;
public long p8, p9, p10, p11, p12, p13, p14; // cache line padding
因此没有伪共享,就没有和其它任何变量的意外抵触,没有不必要的缓存未命中。
Entry类中也值得这样做,如果你有不同的消费者往不同的字段写入,需要确保各个字段间不会出现伪共享。
修改:Martin写了一个从技术上来说更准确更详细的关于伪共享的文章,并且发布了性能测试结果。