为啥我的手动调优、支持 SSE 的代码这么慢?
Posted
技术标签:
【中文标题】为啥我的手动调优、支持 SSE 的代码这么慢?【英文标题】:Why is my hand-tuned, SSE-enabled code so slow?为什么我的手动调优、支持 SSE 的代码这么慢? 【发布时间】:2013-03-30 22:41:37 【问题描述】:长话短说:我正在用 C++ 开发一个计算密集型图像处理应用程序。它需要在从较大图像中提取的小像素块上计算图像扭曲的许多变体。该程序的运行速度不如我想的那么快。分析 (OProfile) 显示扭曲/插值函数消耗超过 70% 的 CPU 时间,因此尝试优化它似乎很明显。
到目前为止,我一直在使用 OpenCV 图像处理库来完成这项任务:
// some parameters for the image warps (position, stretch, skew)
struct WarpParams;
void Image::get(const WarpParams ¶ms)
// fills matrices mapX_ and mapY_ with x and y coordinates of points to be
// inteprolated.
updateCoordMaps(params);
// perform interpolation to obtain pixels at point locations
// P(mapX_[i], mapY_[i]) based on the original data and put the
// result in pixels_. Use bicubic inteprolation.
cv::remap(image_->data(), pixels_, mapX_, mapY_, CV_INTER_CUBIC);
我编写了自己的插值函数并将其放入测试工具中,以确保在我进行实验时的正确性,并根据旧函数对其进行基准测试。
我的函数运行很慢,这是意料之中的。一般来说,这个想法是:
-
遍历mapX_、mapY_坐标图,提取下一个要插值的像素的(实值)坐标;
从内插像素周围的原始图像中检索 4x4 的像素值(整数坐标)邻域;
计算这 16 个像素中每个像素的卷积核系数;
将插值像素的值计算为 16 个像素值和内核系数的线性组合。
我的 Wolfdale Core2 Duo 上的旧功能计时为 25us。新的花了 587us (!)。我急切地戴上巫师帽,开始破解代码。我设法删除了所有分支,省略了一些重复计算,并将 3 个嵌套循环转换为坐标图上的一个。这是我想出的:
void Image::getConvolve(const WarpParams ¶ms)
__declspec(align(16)) static float kernelX[4], kernelY[4];
// grab pointers to coordinate map matrices and the original image
const float
*const mapX = mapX_.ptr<float>(),
*const mapY = mapY_.ptr<float>(),
*const img = image_->data().ptr<float>();
// grab pointer to the output image
float *const subset = pixels_.ptr<float>(),
x, y, xint, yint;
const ptrdiff_t imgw = image_->width();
ptrdiff_t imgoffs;
__m128 v_px, v_kernX, v_kernY, v_val;
// iterate over the coordinate matrices as linear buffers
for (size_t idx = 0; idx < pxCount; ++idx)
// retrieve coordinates of next pixel from precalculated maps,
// break up each into fractional and integer part
x = modf(mapX[idx], &xint);
y = modf(mapY[idx], &yint);
// obtain offset of the top left pixel from the required 4x4
// neighborhood of the current pixel in the image's
// buffer (sadly, the position will be unaligned)
imgoffs = (((ptrdiff_t)yint - 1) * imgw) + (ptrdiff_t)xint - 1;
// calculate all 4 convolution kernel values for every row and
// every column
tap4Kernel(x, kernelX);
tap4Kernel(y, kernelY);
// load the kernel values for the columns, these don't change
v_kernX = _mm_load_ps(kernelX);
// process a row of the 4x4 neighborhood
// get set of convolution kernel values for the current row
v_kernY = _mm_set_ps1(kernelY[0]);
v_px = _mm_loadu_ps(img + imgoffs); // load the pixel values
// calculate the linear combination of the pixels with kernelX
v_px = _mm_mul_ps(v_px, v_kernX);
v_px = _mm_mul_ps(v_px, v_kernY); // and kernel Y
v_val = v_px; // add result to the final value
imgoffs += imgw;
// offset points now to next row of the 4x4 neighborhood
v_kernY = _mm_set_ps1(kernelY[1]);
v_px = _mm_loadu_ps(img + imgoffs);
v_px = _mm_mul_ps(v_px, v_kernX);
v_px = _mm_mul_ps(v_px, v_kernY);
v_val = _mm_add_ps(v_val, v_px);
imgoffs += imgw;
/*... same for kernelY[2] and kernelY[3]... */
// store resulting interpolated pixel value in the subset's
// pixel matrix
subset[idx] = horizSum(v_val);
// Calculate all 4 values of the 4-tap convolution kernel for 4 neighbors
// of a pixel and store them in an array. Ugly but fast.
// The "arg" parameter is the fractional part of a pixel's coordinate, i.e.
// a number in the range <0,1)
void Image::tap4Kernel(const float arg, float *out)
// chaining intrinsics was slower, so this is done in separate steps
// load the argument into 4 cells of a XMM register
__m128
v_arg = _mm_set_ps1(arg),
v_coeff = _mm_set_ps(2.0f, 1.0f, 0.0f, -1.0f);
// subtract vector of [-1, 0, 1, 2] to obtain coorinates of 4 neighbors
// for kernel calculation
v_arg = _mm_sub_ps(v_arg, v_coeff);
// clear sign bits, this is equivalent to fabs() on all 4
v_coeff = _mm_set_ps1(-0.f);
v_arg = _mm_andnot_ps(v_coeff, v_arg);
// calculate values of abs(argument)^3 and ^2
__m128
v_arg2 = _mm_mul_ps(v_arg, v_arg),
v_arg3 = _mm_mul_ps(v_arg2, v_arg),
v_val, v_temp;
// calculate the 4 kernel values as
// arg^3 * A + arg^2 * B + arg * C + D, using
// (A,B,C,D) = (-0.5, 2.5, -4, 2) for the outside pixels and
// (1.5, -2.5, 0, 1) for inside
v_coeff = _mm_set_ps(-0.5f, 1.5f, 1.5f, -0.5f);
v_val = _mm_mul_ps(v_coeff, v_arg3);
v_coeff = _mm_set_ps(2.5f, -2.5f, -2.5f, 2.5f);
v_temp = _mm_mul_ps(v_coeff, v_arg2);
v_val = _mm_add_ps(v_val, v_temp);
v_coeff = _mm_set_ps(-4.0f, 0.0f, 0.0f, -4.0f),
v_temp = _mm_mul_ps(v_coeff, v_arg);
v_val = _mm_add_ps(v_val, v_temp);
v_coeff = _mm_set_ps(2.0f, 1.0f, 1.0f, 2.0f);
v_val = _mm_add_ps(v_val, v_coeff);
_mm_store_ps(out, v_val);
我很高兴能够将运行时间控制在 40us 以下,甚至在将 SSE 引入主循环之前,我最后保存了它。我原本预计至少有 3 倍的加速,但它在 36us 时只快了一点点,比我试图改进的旧 get() 慢。更糟糕的是,当我更改基准循环以进行更多运行时,旧函数具有相同的平均运行时间,而我的延长到超过 127us,这意味着对于一些极端的扭曲参数值需要更长的时间(这是有道理的,因为更多扭曲意味着我需要从原始图像中获取广泛分散的像素值来计算结果)。
我认为原因一定是未对齐的负载,但这无济于事(我需要达到不可预测的像素值)。我在优化部门看不到更多可以做的事情,所以我决定查看 cv::remap() 函数,看看他们是如何做到的。想象一下,我惊讶地发现它包含一堆嵌套循环和大量分支。他们还做了很多我不需要费心的论证验证。据我所知(代码中没有 cmets),SSE(也有未对齐的负载!)仅用于从坐标图中提取值并将它们舍入为整数,然后调用一个函数来执行实际的插值使用常规浮点算术。
我的问题是,为什么我的失败如此悲惨(为什么我的代码这么慢,为什么他们的代码虽然看起来一团糟)但我能做些什么来改进我的代码?
我不在这里粘贴 OpenCV 代码,因为这已经太长了,您可以在 pastebin 上查看。
我在 VC++2010 下的发布模式下测试并编译了我的代码。使用的 OpenCV 是 v2.3.1 的预编译二进制包。
编辑: 像素值是 0..1 范围内的浮点数。分析显示 tap4Kernel() 函数不相关,大部分时间都花在 getConvolve() 中。
EDIT2: 我将 disassembly of the generated code 粘贴到了 pastebin。这是在旧的 Banias Celeron 处理器(具有 SSE2)上编译的,但看起来或多或少相同。
EDIT3: 阅读What Every Programmer Should Know About Memory 后,我意识到我错误地假设OpenCV 函数实现的算法与我所做的或多或少相同,但事实并非如此。对于我插值的每个像素,我需要检索其 4x4 邻域,其像素不按顺序放置在图像缓冲区内。我在滥用 CPU 缓存,而 OpenCV 可能不会。 VTune 分析似乎同意,因为我的函数有 5,800,000 次内存访问,而 OpenCV 只有 400,000 次。它们的功能一团糟,可能会进一步优化,但它仍然比我有优势,这可能是由于一些更智能的内存和缓存使用方法。
更新:我设法改进了将像素值加载到 XMM 寄存器中的方式。我在对象中分配了一个缓冲区,该缓冲区为图像的每个像素保存 16 个元素的单元格。在图像加载时,我为每个像素使用预先安排的 4x4 邻域序列填充此单元缓冲区。不是很节省空间(图像占用 16 倍的空间),但是这样,负载总是对齐的(不再是 _mm_loadu_ps()),并且我避免了从图像缓冲区中分散读取像素,因为所需的像素顺序存储。令我惊讶的是,几乎没有任何改善。我听说未对齐的负载可能会慢 10 倍,但显然这不是问题所在。但是通过注释掉部分代码,我发现 modf() 调用负责 75% 的运行时间!我将专注于消除这些并发布答案。
【问题讨论】:
如果不重用v_coeff
变量会怎样?您正在创建不需要存在的数据依赖项和排序要求。
@uʍopǝpısdn:我试图在不影响必要细节的情况下尽可能简短。也就是说,我往往比较冗长,对于给您带来的不便,我深表歉意。
尝试将tap4Kernel
的参数更改为__m128 &
以避免内存存储和重新加载。确保 tap4Kernel
的定义可用于内联。
@neuviemeporte:一些通用说明。查看生成的代码。尽可能提前尝试并做负载。如果您有常量,您想尝试将它们保存在同一个 SSE 寄存器中,而不是不断交换东西(即使这意味着不在 SSE 中做部分工作)。 SSE 将在流式传输情况下大放异彩,您可以提前设置所有常量,展开循环以使负载远离计算,减少连续操作之间的依赖关系(例如,通过并行处理多个流)...
_mm_set_ps1
有点狡猾,它喜欢映射到缓慢的指令序列
【参考方案1】:
首先进行一些观察。
您使用函数静态变量,这可能会导致同步(但我认为这里不会) 程序集混合了 x87 和 sse 代码。 tap4kernel 是内联的,这很好,但配置文件可能不准确。 modf 未内联。 程序集使用 _ftol2_sse (_ftol2_sse, are there faster options?)。 程序集移动了很多寄存器。尝试执行以下操作:
-
确保您的编译器正在积极优化基于 SSE2 的架构。
使 modf 可用于内联。
避免使用函数静态变量。
如果程序集仍使用 x87 指令,请尝试避免
imgoffs = (((ptrdiff_t)yint - 1) * imgw) + (ptrdiff_t)xint - 1;
中的 float-int 强制转换,并使浮点变量 __m128。
可以通过预取地图进一步优化(预取大约 4kb)
【讨论】:
这很有趣,我认为静态数组会更快,因为它们只需要初始化一次。另外,如何“使 modf 可用于内联”?以上是关于为啥我的手动调优、支持 SSE 的代码这么慢?的主要内容,如果未能解决你的问题,请参考以下文章