由于缓存,为啥访问 int8_t 数组并不比 int32_t 快?
Posted
技术标签:
【中文标题】由于缓存,为啥访问 int8_t 数组并不比 int32_t 快?【英文标题】:Why accessing an array of int8_t is not faster than int32_t, due to cache?由于缓存,为什么访问 int8_t 数组并不比 int32_t 快? 【发布时间】:2021-07-21 14:44:19 【问题描述】:我在大步访问时读到了这一点
for (int i = 0; i < aSize; i++) a[i] *= 3;
for (int i = 0; i < aSize; i += 16) a[i] *= 3;
两个循环的执行方式应该相似,因为内存访问的顺序高于乘法。
我正在使用谷歌基准测试,在测试类似的缓存行为时,我得到了我不理解的结果。
template <class IntegerType>
void BM_FillArray(benchmark::State& state)
for (auto _ : state)
IntegerType a[15360 * 1024 * 2]; // Reserve array that doesn't fit in L3
for (size_t i = 0; i < sizeof(a) / sizeof(IntegerType); ++i)
benchmark::DoNotOptimize(a[i] = 0); // I have compiler optimizations disabled anyway
BENCHMARK_TEMPLATE(BM_FillArray, int32_t);
BENCHMARK_TEMPLATE(BM_FillArray, int8_t);
Run on (12 X 3592 MHz CPU s)
CPU Caches:
L1 Data 32 KiB (x6)
L1 Instruction 32 KiB (x6)
L2 Unified 256 KiB (x6)
L3 Unified 15360 KiB (x1)
---------------------------------------------------------------
Benchmark Time CPU Iterations
---------------------------------------------------------------
BM_FillArray<int32_t> 196577075 ns 156250000 ns 4
BM_FillArray<int8_t> 205476725 ns 160156250 ns 4
我希望访问字节数组比整数数组更快,因为缓存行中可以容纳更多元素,但事实并非如此。
以下是启用优化后的结果:
BM_FillArray<int32_t> 47279657 ns 47991071 ns 14
BM_FillArray<int8_t> 49374830 ns 50000000 ns 10
任何人都可以澄清一下吗?谢谢:)
更新 1:
我已经阅读了旧文章“程序员应该了解的内存”,现在一切都更加清楚了。但是,我尝试了以下基准:
template <int32_t CacheLineSize>
void BM_ReadArraySeqCacheLine(benchmark::State& state)
struct CacheLine
int8_t a[CacheLineSize];
;
vector<CacheLine> cl;
int32_t workingSetSize = state.range(0);
int32_t arraySize = workingSetSize / sizeof(CacheLine);
cl.resize(arraySize);
const int32_t iterations = 1536 * 1024;
for (auto _ : state)
srand(time(NULL));
int8_t res = 0;
int32_t i = 0;
while (i++ < iterations)
//size_t idx = i% arraySize;
int idx = (rand() / float(RAND_MAX)) * arraySize;
benchmark::DoNotOptimize(res += cl[idx].a[0]);
BENCHMARK_TEMPLATE(BM_ReadArraySeqCacheLine, 1)
->Arg(32 * 1024) // L1 Data 32 KiB(x6)
->Arg(256 * 1024) // L2 Unified 256 KiB(x6)
->Arg(15360 * 1024);// L3 Unified 15360 KiB(x1)
BENCHMARK_TEMPLATE(BM_ReadArraySeqCacheLine, 64)
->Arg(32 * 1024) // L1 Data 32 KiB(x6)
->Arg(256 * 1024) // L2 Unified 256 KiB(x6)
->Arg(15360 * 1024);// L3 Unified 15360 KiB(x1)
BENCHMARK_TEMPLATE(BM_ReadArraySeqCacheLine, 128)
->Arg(32 * 1024) // L1 Data 32 KiB(x6)
->Arg(256 * 1024) // L2 Unified 256 KiB(x6)
->Arg(15360 * 1024);// L3 Unified 15360 KiB(x1)
当工作大小不适合缓存时,我预计随机访问的性能会更差。然而,这些是结果:
BM_ReadArraySeqCacheLine<1>/32768 39936129 ns 38690476 ns 21
BM_ReadArraySeqCacheLine<1>/262144 40822781 ns 39062500 ns 16
BM_ReadArraySeqCacheLine<1>/15728640 58144300 ns 57812500 ns 10
BM_ReadArraySeqCacheLine<64>/32768 32786576 ns 33088235 ns 17
BM_ReadArraySeqCacheLine<64>/262144 32066729 ns 31994048 ns 21
BM_ReadArraySeqCacheLine<64>/15728640 50734420 ns 50000000 ns 10
BM_ReadArraySeqCacheLine<128>/32768 29122832 ns 28782895 ns 19
BM_ReadArraySeqCacheLine<128>/262144 31991964 ns 31875000 ns 25
BM_ReadArraySeqCacheLine<128>/15728640 68437327 ns 68181818 ns 11
我错过了什么?
更新 2:
我现在使用您建议的 (linear_congruential_engine) 来生成随机数,而且我只使用静态数组,但结果现在让我更加困惑。
这是更新后的代码:
template <int32_t WorkingSetSize, int32_t ElementSize>
void BM_ReadArrayRndCacheLine(benchmark::State& state)
struct Element
int8_t data[ElementSize];
;
constexpr int32_t ArraySize = WorkingSetSize / sizeof(ElementSize);
Element a[ArraySize];
constexpr int32_t iterations = 1536 * 1024;
linear_congruential_engine<size_t, ArraySize/10, ArraySize/10, ArraySize> lcg; // I've tried with many params...
for (auto _ : state)
int8_t res = 0;
int32_t i = 0;
while (i++ < iterations)
size_t idx = lcg();
benchmark::DoNotOptimize(res += a[idx].data[0]);
// L1 Data 32 KiB(x6)
// L2 Unified 256 KiB(x6)
// L3 Unified 15360 KiB(x1)
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 32 * 1024, 1);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 32 * 1024, 64);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 32 * 1024, 128);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 256 * 1024, 1);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 256 * 1024, 64);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 256 * 1024, 128);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 15360 * 1024, 1);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 15360 * 1024, 64);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 15360 * 1024, 128);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 15360 * 1024 * 4, 1);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 15360 * 1024 * 4, 64);
BENCHMARK_TEMPLATE(BM_ReadArrayRndCacheLine, 15360 * 1024 * 4, 128);
以下是结果(已启用优化):
// First template parameter is working set size.
// Second template parameter is array elemeent size.
BM_ReadArrayRndCacheLine<32 * 1024, 1> 2833786 ns 2823795 ns 249
BM_ReadArrayRndCacheLine<32 * 1024, 64> 2960200 ns 2979343 ns 236
BM_ReadArrayRndCacheLine<32 * 1024, 128> 2896079 ns 2910539 ns 204
BM_ReadArrayRndCacheLine<256 * 1024, 1> 3114670 ns 3111758 ns 236
BM_ReadArrayRndCacheLine<256 * 1024, 64> 3629689 ns 3643135 ns 193
BM_ReadArrayRndCacheLine<256 * 1024, 128> 3213500 ns 3187189 ns 201
BM_ReadArrayRndCacheLine<15360 * 1024, 1> 5782703 ns 5729167 ns 90
BM_ReadArrayRndCacheLine<15360 * 1024, 64> 5958600 ns 6009615 ns 130
BM_ReadArrayRndCacheLine<15360 * 1024, 128> 5958221 ns 5998884 ns 112
BM_ReadArrayRndCacheLine<15360 * 1024 * 4, 1> 6143701 ns 6076389 ns 90
BM_ReadArrayRndCacheLine<15360 * 1024 * 4, 64> 5800649 ns 5902778 ns 90
BM_ReadArrayRndCacheLine<15360 * 1024 * 4, 128> 5826414 ns 5729167 ns 90
对于 (L1d
即使在尝试从主内存(workingSet > L3)中获取数据时,我的性能也没有大幅下降。你提到最新的架构可以保持高达每时钟 8 字节的带宽,但我知道他们必须复制一个保持缓存行,并且如果没有使用可预测的线性模式预取,延迟应该在我的测试中更加明显......为什么不是这样吗?
我怀疑页面错误和 tlb 可能也有关系。
(我已经下载了 vtune 分析器来尝试更好地理解所有这些东西,但它挂在我的机器上,我一直在等待支持)
非常感谢您的帮助 Peter Cordes :)
我只是一名游戏程序员,试图向我的队友展示在我们的代码中使用某些整数类型是否会(或不会)影响我们的游戏性能。例如,我们是否应该担心使用快速类型(例如 int_fast16_t)或在变量中使用尽可能少的字节以便更好地打包(例如 int8_t)。
【问题讨论】:
无论如何我都禁用了编译器优化 - 那么一切都会变得如此缓慢,以至于 RAM 可以轻松跟上 CPU,即使你有一个多核 Xeon(其中单个-核心内存带宽低于四核台式机)。但是,如果那是一个六核英特尔“客户端”芯片(我怀疑不是 AMD,因为它有 6 个内核共享一个 L3),那么可用带宽比每 ~6 个时钟周期将一个字节或一个双字归零所需的带宽要多得多。 (Why is Skylake so much better than Broadwell-E for single-threaded memory throughput?) 200 个停顿周期是延迟,而不是吞吐量。硬件预取和内存级并行性隐藏了这一点。 lighterra.com/papers/modernmicroprocessors 有一个关于内存的部分。 在更现代的 CPU(如桌面 Skylake)上,理论最大值为 34GB/s,单个内核几乎可以使用它,在 4GHz 时每个内核时钟大约 8 字节。在 E5-1650 v4 (6-core Broadwell-EP, 15MiB of L3) 上,它甚至更高(在所有 4 个通道上约为 71GiB/s),但每核带宽可能会被限制为远低于最大聚合。 (但仍然超过 10GiB/s 的读取 和 在 memcpy 中写入,请参阅我的第一条评论中的链接,对于标量存储来说应该足够了。)单核上的普通代码并且速度要快得多由于硬件预取,超过 4B / 200 个周期。 re: 用基准更新:rand()
很慢;您在rand()
和 L1d 和 L2 大小的划分吞吐量上遇到瓶颈,L3 缓存未命中速度很慢,以至于 OoO exec 仅部分隐藏了它。 (通过与其他计算重叠来尽可能地隐藏缓存未命中延迟是乱序执行的主要目标/好处之一。您的基准测试允许机器可以管理尽可能多的内存级并行性,如果它甚至需要的话要跟上较慢的rand()
。)另外,不要在定时函数中srand()
;做一次或根本不做。
快速的 xorshift+ 可能或避免除法的 LCG 可能工作得很好;您不需要高质量的随机性来击败硬件预取。您可能循环了足够多的时间,即使有页面错误开销,在定时函数内分配向量也是可以的。正常的std::vector
不能在不污染页面的情况下有效地进行零初始化,因此您可能看不到任何延迟分配效果,例如将多个虚拟页面映射到 TLB 未命中但 L1d 命中的同一个零物理页面。
【参考方案1】:
Re:终极问题:int_fast16_t
是数组的垃圾,因为 x86-64 上的 glibc 不幸地将其定义为 64 位类型(不是 32 位),因此它浪费了大量的缓存空间。问题是“快速用于什么目的”,并且 glibc 回答“快速用作数组索引/循环计数器”,显然,即使在某些较旧的 CPU 上除法或乘法较慢(在做出选择时这些 CPU 是当前的) )。 IMO 这是一个糟糕的设计决定。
一般对数组使用小整数类型是好;通常缓存未命中是一个问题,因此即使这意味着使用movzx
或movsx
加载而不是内存源操作数来将其与int
或unsigned
32 位本地一起使用,也可以减少占用空间。如果 SIMD 成为可能,那么每个固定宽度向量具有更多元素意味着您可以在每条指令中完成更多工作。
但不幸的是,int_fast16_t
无法通过某些库帮助您实现这一目标,但 short
或 int_least16_t
会。
请参阅问题下方的我的 cmets 以获得早期部分的答案:200 个停顿周期是延迟,而不是吞吐量。硬件预取和内存级并行性隐藏了这一点。 Modern Microprocessors - A 90 Minute Guide! 非常好,并且有一个关于内存的部分。另请参阅What Every Programmer Should Know About Memory?, 在 2021 年仍然高度相关。(除了一些关于预取线程的内容。)
您的更新 2 具有更快的 PRNG
Re:为什么 L2 不比 L1 慢:乱序 exec 足以隐藏 L2 延迟,甚至你的 LGC 太慢而无法强调 L2 吞吐量。很难以足够快的速度生成随机数,从而给可用的内存级并行带来很多麻烦。
您的 Skylake 派生 CPU 具有 97 微指令的乱序调度程序 (RS),ROB 大小为 224 微指令(类似于 https://realworldtech.com/haswell-cpu/3,但更大),以及 12 个 LFB 来跟踪它正在等待的缓存行。只要 CPU 可以跟踪足够的运行中负载(延迟 * 带宽),不必去 L2 就没什么大不了的。隐藏缓存未命中的能力是衡量无序窗口大小的一种方法:https://blog.stuffedcow.net/2013/05/measuring-rob-capacity
L2 命中的延迟为 12 个周期 (https://www.7-cpu.com/cpu/Skylake.html)。 Skylake 可以从 L1d 缓存每个时钟执行 2 次加载,但不能从 L2 加载。 (它不能支持每个时钟 IIRC 1 个缓存线,但每 2 个时钟 1 个甚至更好一些是可行的)。
您的 LCG RNG 限制了您的循环延迟:对于 2 次方阵列大小需要 5 个周期,对于像“L3”测试尝试这样的非 2 次方大小的阵列,需要 13 个周期1。所以这大约是 L1d 可以处理的访问速率的 1/10,即使每次访问都未命中 L1d 但在 L2 中命中,您甚至不会从 L2 保持超过一个负载。 OoO exec + 加载缓冲区甚至不会出汗。所以 L1d 和 L2 将具有相同的速度,因为它们都使用 2 的幂数组大小。
注 1:x = a * x + c
的 imul(3c) + add(1c),然后使用 a multiplicative inverse 的 remainder = x - (x/m * m)
,可能是 mul
(size_t 的上半部分需要 4 个周期?)+ shr(1) + imul (3c)+子(1c)。或者对于大小为 2 的幂,模只是 AND 与 (1UL<<n) - 1
之类的常量。
显然我的估计并不完全正确,因为您的非 2 次幂数组小于 L1d / L2 的两倍,而不是我估计的 13/5,即使L3 延迟/带宽不是一个因素。
在展开的循环中运行多个独立的 LCG 可能会有所不同。 (使用不同的种子。)但是对于 LCG 而言,非 2 的幂 m
仍然意味着相当多的指令,因此您将成为 CPU 前端吞吐量(和后端执行端口,特别是乘法器)的瓶颈。
具有乘数 (a
) = ArraySize/10
的 LCG 可能只是一个足够大的步幅,硬件预取器不会从锁定它中受益匪浅。但通常 IIRC 你想要一个大的奇数或其他东西(自从我查看 LCG 参数选择的数学以来已经有一段时间了),否则你可能只接触有限数量的数组元素,而不是最终覆盖它们。 (您可以通过将1
存储到随机循环中的每个数组元素来测试这一点,然后计算有多少数组元素被触及,即通过对数组求和,如果其他元素为 0。)
a
和c
绝对不都应该是m
的因素,否则您每次都访问相同的 10 个缓存行,而排除其他所有内容。
正如我之前所说,击败硬件预取并不需要太多随机性。带有c=0
、a=
奇数(可能是素数)和m=UINT_MAX
的LCG 可能很好,实际上只是imul
。您可以分别对每个 LCG 结果的阵列大小取模,从而使该操作脱离关键路径。在这一点上,您最好将标准库排除在外,直接以unsigned rng = 1;
开始,rng *= 1234567;
作为您的更新步骤。然后使用arr[rng % arraysize]
。
这比使用 xorshift+ 或 xorshft* 做的任何事情都便宜。
基准缓存延迟:
您可以生成一个随机的uint16_t
或uint32_t
索引数组一次(例如在静态初始化程序或构造函数中)并重复循环,在这些位置访问另一个数组。这将交错顺序访问和随机访问,并使代码可能在 L1d 命中时每个时钟执行 2 次加载,特别是如果您使用 gcc -O3 -funroll-loops
。 (使用-march=native
,它可能会使用 AVX2 收集指令自动矢量化,但仅适用于 32 位或更宽的元素,因此如果您想排除仅来自从数组中获取索引的混杂因素,请使用 -fno-tree-vectorize
。)
为了测试缓存/内存延迟,通常的技术是在数组周围创建随机分布的链表。遍历列表,下一个加载可以在前一个加载完成后(但不是之前)开始。因为一个依赖另一个。这称为“负载使用延迟”。另请参阅Is there a penalty when base+offset is in a different page than the base?,了解英特尔 CPU 用来乐观地加速此类工作负载的技巧(4 周期 L1d 延迟情况,而不是通常的 5 周期)。半相关:PyPy 17x faster than Python. Can Python be sped up? 是另一个依赖于指针追踪延迟的测试。
【讨论】:
re:“但是每 2 个时钟 1 个甚至更好一些是可行的”您可以从 L2 获得每 3 个时钟周期 2 个。见Travis Downs has a writeup on it。另外关于 x86_64 上的fast_int*
转到 int64
。认为值得一个补丁?我的直觉是 int8 -> int8, int16 -> int32, int32 -> int32, int64 -> int64。
re:“显然我的估计不太正确”可能是因为 p0 上的 mul
是一些 ALU 的瓶颈,例如 sub
,即使它们处于延迟的关键路径上免费是因为它们不占用 p0 资源,所以不会影响吞吐量的实际瓶颈?以上是关于由于缓存,为啥访问 int8_t 数组并不比 int32_t 快?的主要内容,如果未能解决你的问题,请参考以下文章
为啥我不能在对象数组的 for-in 循环中访问对象属性? [复制]