.NET如何快速比较两个byte数组是否相等
Posted InCerry
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了.NET如何快速比较两个byte数组是否相等相关的知识,希望对你有一定的参考价值。
前言
之前在群里面有群友问过一个这样的问题,在.NET中如何快速的比较两个byte数组是否完全相等,听起来是一个比较两个byte数组是完全相等是一个简单的问题,但是深入研究以后,觉得还是有很多方案的,这里和大家一起分享下。
评测方案
这里为了评测不同方案的性能,我们用到了BenchmarkDotNet
这个库,这个库目前已经被收入.NET基金会下,BenchmarkDotNet
可以很方便的评测方法执行的性能,支持几乎所有的.NET运行环境,并且能输出详细的报表。使用起来也非常简单,你只需要安装BenchmakrDotNet
的Nuget包,然后使用其提供的类和方法即可,这里是它的项目地址和帮助文档。
我们通过BenchmarkDotNet来构建一个这样的评测用例.
using BenchmarkDotNet.Attributes;
using BenchmarkDotNet.Running;
using CompareByte;
// 需要引入BenchmarkDotNet的命名空间
// 运行Benchmark相当简单,只需要执行这个静态方法,泛型是需要评测的类
var summary = BenchmarkRunner.Run<BenchmarkCompareMethod>();
// 我们需要一些评测内存结果信息
// 并且生成HTML报表
[MemoryDiagnoser]
[HtmlExporter]
public class BenchmarkCompareMethod
// 准备两个数组,填充4MB大小的数据
private static readonly byte[] XBytes = Enumerable.Range(0, 4096000).Select(c => (byte) c).ToArray();
private static readonly byte[] YBytes = Enumerable.Range(0, 4096000).Select(c => (byte) c).ToArray();
public BenchmarkCompareMethod()
// 修改数组最后一个元素,使其不同
XBytes[4095999] = 1;
YBytes[4095999] = 2;
[Benchmark(Baseline = true)]
public void ForCompare()
.....
需要注意的是,为了保证评测的结果与生产环境一致,BenchmarkDotNet
是要求使用Release
模式运行程序,这样的话不仅代码编译成IL
时优化,程序运行中JIT
也会更加积极的参与生产机器码优化。需要在项目文件夹下面使用dotnet run -c Release
来运行评测。
几种不同的方案
For循环
一开始看到这个需求,第一个想到的就是直接使用for
循环对byte[]
进行按下标比较,我觉得也是大家第一时间能想到的方案,那我们就上代码跑跑看速度。
public static bool ForCompare(byte[]? x, byte[]? y)
if (ReferenceEquals(x, y)) return true; // 引用相等,可以直接认为相等
if (x is null || y is null) return false; // 两者引用不相等情况下,一方为null那就不相等
if (x.Length != y.Length) return false; // 两者长度不等,那么肯定也不相等
for (var index = 0; index < x.Length; index++)
if (x[index] != y[index]) return false;
return true;
最终的结果如下所示,我们可以看到其实使用for
循环进行比较是很快的,4MB大小的数组2ms左右就能比较完毕。
其实还有一个优化点,.NET的JIT
对一些方法默认是不做inline
内联优化的,这样每次还有一个方法调用的开销,我们让jit
去积极的进行内联,再来试试。方法也很简单,只需要引入System.Runtime.CompilerServices
命名空间,然后在方法上面打上头标记即可。
要搞清楚为什么方法内联有用,首先要知道当一个方法被调用的时候发生了什么
- 1、首先会有个执行栈,存储目前所有活跃的方法,以及它们的本地变量和参数
- 2、当一个新的方法被调用了,一个新的栈帧会被加到栈顶,分配的本地变量和参数会存储在这个栈帧
- 3、跳到目标方法代码执行
- 4、方法返回的时候,本地方法和参数会被销毁,栈顶被移除
- 5、返回原来地址执行
这就是通常说的方法调用的压栈和出栈过程,因此,方法调用需要有一定的时间开销和空间开销,当一个方法体不大,但又频繁被调用时,这个时间和空间开销会相对变得很大,变得非常不划算,同时降低了程序的性能。所以内联简单的说就是把目标方法里面代码复制到调用方法的地方,无需压栈、跳转和出栈。
不过并不是所有的方法内联都有益处,需要方法体比较小,如果方法体很大的话在每一个调用的地方都会发生替换,浪费内存。
using System.Runtime.CompilerServices;
.....
[MethodImpl(MethodImplOptions.AggressiveInlining | MethodImplOptions.AggressiveOptimization)]
public static bool ForCompare(byte[]? x, byte[]? y)
再来跑一下试试。
最后可以看到性能提升了30%呀,分配的字节数少了50% (虽然本来就只有2字节),讲道理就可以直接交差了。
Memcmp
但是群里面还有小伙伴就不满足了,有没有其它的方案?有个小伙伴就跳出来说,操作系统是不是提供了类似的功能?会不会使用C/C++代码运行起来会更加快速?
没错,操作系统确实提供了这样的函数,微软提供了一个名为mscrt
(微软C运行时库)的库,里面就提到了memcmp
这个函数就可以来比较两个buffer
是否相等。MSDN链接.
函数签名是这样的,这个函数位于mscrt.dll
内。
int memcmp(
const void *buffer1, // 数组1指针
const void *buffer2, // 数组2指针
size_t count // 比较字节数
);
既然有现成的C语言代码,那么C#应该如何调用它呢?实际上C#经常被大家成为C++++是有一定道理的,它在设计之初就考虑了和C、C++等代码的交互。这里使用到了C#的Native Interop - P/Invoke
技术,可以很方便的使用C风格的ABI(C++、Rust等等都提供C语言ABI生成),在.NET底层大量的代码都是通过这种方式和底层交互,有兴趣的可以戳链接了解更详细的信息。
那么如何使用它呢?以我们上面的函数为例,我们只需要引入System.Runtime.InteropServices
命名空间,然后按照上面memcmp
函数的签名转换为C#代码就行了,最终的代码如下所示。
using System;
using System.Runtime.InteropServices;
namespace CompareByte;
public static class BytesCompare
[DllImport("msvcrt.dll")] // 需要使用的dll名称
private static extern unsafe int memcmp(byte* b1, byte* b2, int count);
// 由于指针使用是内存不安全的操作,所以需要使用unsafe关键字
// 项目文件中也要加入<AllowUnsafeBlocks>true</AllowUnsafeBlocks>来允许unsafe代码
public static unsafe bool MemcmpCompare(byte[]? x,byte[]? y)
if (ReferenceEquals(x, y)) return true;
if (x is null || y is null) return false;
if (x.Length != y.Length) return false;
// 在.NET程序的运行中,垃圾回收器可能会整理和压缩内存,这样会导致数组地址变动
// 所以,我们需要使用fixed关键字,将x和y数组\'固定\'在内存中,让GC不移动它
// 更多详情请看 https://docs.microsoft.com/zh-cn/dotnet/csharp/language-reference/keywords/fixed-statement
fixed (byte* xPtr = x, yPtr = y)
return memcmp(xPtr, yPtr, x.Length) == 0;
那我们来跑个分吧,看看结果怎么样。
结果真的是Amazing呀,比我们使用的for
循环方案足足快了80+%,从原来需要1.7ms左右到现在只需要300us。
64字长优化
那是不是证明C#就是没有C跑的那么快呢?C#那还有没有优化的空间呢?当然是有方法的,实际上memcmp
使用的算法和我们现在用的不一样。
我们知道衡量算法的时间复杂度是使用大O来表示,而这个其实是代码执行时间随数据规模增长的变化趋势的一个体现。比如我输入的数据量大小为n,完成这个函数我近似需要执行n次,那么时间复杂度就是O(n)。
再来回到我们的问题中,在最坏的情况下(x
和y
引用不相等且的长度相等),我们上面写的ForCompare
就会进入for
循环来遍历x
和y
每一个元素进行比较,所以它的时间复杂度就是O(n)
,那么问题的关键就是如何降低它的时间复杂度。
一个数组它的地址空间是连续的,另外byte
类型的长度是8bit
,默认比较方式就像下图一样,一个元素一个元素的比较,也就是每8bit
每8bit
进行比较。
那我们能让他一次比较更多的位数吗?比如一次16位、32位、64位?当然是可以的,毕竟我们现在基本都是64位的CPU,不严谨的说实际上CPU一次能处理64位数据,那么我们如何让它一次性能比较64位呢?
有小伙伴就说,很简单嘛,byte
是8bit
,我们直接用long
不就有64bit
了吗?没错,就是这么简单,我们可以把byte*
指针强转为long*
指针,然后一次性比较64位,如下图所示。
上代码(我这用的是UInt64
包装的ulong
,一样是64位,没有符号位会更快一点):
public static unsafe bool UlongCompare(byte[]? x, byte[]? y)
if (ReferenceEquals(x, y)) return true;
if (x is null || y is null) return false;
if (x.Length != y.Length) return false;
fixed (byte* xPtr = x, yPtr = y)
return UlongCompareInternal(xPtr, yPtr, x.Length);
private static unsafe bool UlongCompareInternal(byte* xPtr, byte* yPtr, int length)
// 指针+偏移量计算出数组最后一个元素地址
byte* lastAddr = xPtr + length;
byte* lastAddrMinus32 = lastAddr - 32;
while (xPtr < lastAddrMinus32) // 我们一次循环比较32字节,也就是256位
// 一次判断比较前64位
if (*(ulong*) xPtr != *(ulong*) yPtr) return false;
// 第二次从64为开始,比较接下来的64位,需要指针偏移64位,一个byte指针是8为,所以需要偏移8个位置才能到下一轮起始位置
// 所以代码就是xPtr+8
if (*(ulong*) (xPtr + 8) != *(ulong*) (yPtr + 8)) return false;
// 同上面一样,第三次从第128位开始比较64位
if (*(ulong*) (xPtr + 16) != *(ulong*) (yPtr + 16)) return false;
// 第四次从第192位开始比较64位
if (*(ulong*) (xPtr + 24) != *(ulong*) (yPtr + 24)) return false;
// 一轮总共比较了256位,让指针偏移256位
xPtr += 32;
yPtr += 32;
// 因为上面是一次性比较32字节(256位),可能数组不能为32整除,最后只留下比如30字节,20字节
// 最后的几个字节,我们用循环来逐字节比较
while (xPtr < lastAddr)
if (*xPtr != *yPtr) return false;
xPtr++;
yPtr++;
return true;
那我们来跑个分吧。
可以看到基本和memcmp
打平了,几us的差别可以看做是误差。大佬们一直说,C#是一门下限低,上限高的语言,你开心的话写出来的代码完全媲美C++,代码里面还能嵌入汇编,只是有点麻烦,O(∩_∩)O哈哈~
SIMD
那么我们就这样满足了吗?
小伙伴又问了,既然我们可以一次性比较64位,那我们能比较更多的位数吗?比如128位,256位?答案是当然可以,这个是CPU的一个技术,叫Single Instruction Multiple Data,简称为SIMD,SIMD主要就是说CPU中可以单条指令实现数据的并行处理,这类指令在数字信号处理、图像处理、以及多媒体信息处理等领域非常有效。
我们打开CPU-Z,可以看到指令集有很多,这都是CPU为了特殊的程序单独做的优化。
MMX:MMX 是MultiMedia eXtensions(多媒体扩展)的缩写,是第六代CPU芯片的重要特点。MMX技术是在CPU中加入了特地为视频信号(Video Signal),音频信号(Audio Signal)以及图像处理(Graphical Manipulation)而设计的57条指令,因此,MMX CPU极大地提高了电脑的多媒体(如立体声、视频、三维动画等)处理功能。
SSE:SSE是 “因特网数据流单指令序列扩展 ( Internet Streaming SIMD Extensions)的缩写。SSE除保持原有的MMX指令外,又新增了70条指令,在加快浮点运算的同时,改善了内存的使用效率,使内存速度更快,后面有一些增强版SSE2、SSE3等等。
EM64T:Intel的EM64T技术,EM64T技术官方全名是Extended Memory 64 Technology,中文解释就是扩展64bit内存技术。
AES:AES(Advanced Encryption Standard,高级加密标准)指令集,是专门为加密解密设计的,与此前相比AES加密/解密之性能高出3倍。
AVX:Advanced Vector eXtentions(AVX)在2008年由Intel与AMD提出,并于2011年分别在Sandy Bridge以及Bulldozer架构上提供⽀持。AVX的主要改进在于对寄存器长度的扩展以及提供了更灵活的指令集。 AVX对 XMM 寄存器做了扩展,从原来的128-bit扩展到了256-bit,256-bit的寄存器命名为 YMM 。YMM的低128-bit是与XMM混⽤ 的。
对于这些指令集,在.NET上提供了System.Runtime.Intrinsics.X86
命名空间,其中支持了各种指令集原生的访问,想了解更多的东西,可以戳这个链接。由于SIMD在.NET上有着天然的支持,可以很方便的写出SIMD代码,而其它编程语言平台或多或少支持都不是很完美。
类名 | 作用 |
---|---|
Aes | 此类通过内部函数提供对 Intel AES 硬件指令的访问权限。 |
Avx | 该类通过内联函数提供对 Intel AVX 硬件指令的访问权限。 |
Avx2 | 此类通过内部函数提供对 Intel AVX2 硬件指令的访问。 |
Bmi1 | 此类通过内部函数提供对 Intel BMI1 硬件指令的访问权限。 |
Bmi2 | 此类通过内部函数提供对 Intel BMI2 硬件指令的访问权限。 |
Fma | 此类通过内部函数提供对 Intel FMA 硬件指令的访问权限。 |
Lzcnt | 此类通过内部函数提供对 Intel LZCNT 硬件指令的访问权限。 |
Pclmulqdq | 此类通过内部函数提供对 Intel PCLMULQDQ 硬件指令的访问权限。 |
Popcnt | 此类通过内部函数提供对 Intel POPCNT 硬件指令的访问权限。 |
Sse | 此类通过内部函数提供对 Intel SSE 硬件指令的访问权限。 |
Sse2 | 此类通过内部函数提供对 Intel SSE2 硬件指令的访问权限。 |
Sse3 | 此类通过内部函数提供对 Intel SSE3 硬件指令的访问权限。 |
Sse41 | 此类通过内部函数提供对 Intel SSE 4.1 硬件指令的访问。 |
Sse42 | 此类通过内部函数提供对 Intel SSE4.2 硬件指令的访问权限。 |
Ssse3 | 此类通过内部函数提供对 Intel SSSE3 硬件指令的访问权限。 |
X86Base | 通过内部函数提供对 x86 基本硬件指令的访问。 |
Sse
我们看到SSE系列的指令集可以操作128位,那我们就来试试128位会不会更快一些,直接上代码。
using System.Runtime.Intrinsics.X86; // 需要引入这个命名空间
namespace CompareByte;
public static class BytesCompare
......
public static unsafe bool Sse2Compare(byte[]? x, byte[]? y)
if (ReferenceEquals(x, y)) return true;
if (x is null || y is null) return false;
if (x.Length != y.Length) return false;
fixed (byte* xPtr = x, yPtr = y)
return Sse2CompareInternal(xPtr, yPtr, x.Length);
private static unsafe bool Sse2CompareInternal(byte* xPtr, byte* yPtr, int length)
// 这里的算法与64位大体一样,只是位数变成了128位
byte* lastAddr = xPtr + length;
byte* lastAddrMinus64 = lastAddr - 64;
const int mask = 0xFFFF;
while (xPtr < lastAddrMinus64)
// 使用Sse2.LoadVector128()各加载x和y的128位数据
// 再使用Sse2.CompareEqual()比较是否相等,它的返回值是一个128位向量,如果相等,该位置返回0xffff,否则返回0x0
// CompareEqual的结果是128位的,我们可以通过Sse2.MoveMask()来重新排列成32位,最终看是否等于0xffff就好
if (Sse2.MoveMask(Sse2.CompareEqual(Sse2.LoadVector128(xPtr), Sse2.LoadVector128(yPtr))) != mask)
return false;
if (Sse2.MoveMask(Sse2.CompareEqual(Sse2.LoadVector128(xPtr + 16), Sse2.LoadVector128(yPtr + 16))) != mask)
return false;
if (Sse2.MoveMask(Sse2.CompareEqual(Sse2.LoadVector128(xPtr + 32), Sse2.LoadVector128(yPtr + 32))) != mask)
return false;
if (Sse2.MoveMask(Sse2.CompareEqual(Sse2.LoadVector128(xPtr + 48), Sse2.LoadVector128(yPtr + 48))) != mask)
return false;
xPtr += 64;
yPtr += 64;
while (xPtr < lastAddr)
if (*xPtr != *yPtr) return false;
xPtr++;
yPtr++;
return true;
放到JIT里面看看,有没有生成SIMD代码,可以明显的看到汇编代码里面已经有了SIMD代码。
来看看跑分结果。
可以看到对比memcmp
的方式快了2+%,那按道理来说从64位到128位应该快50%左右才对,为什么只快了2+%呢?
其实这是因为SIMD是单条指令多数据处理,其中运算还是CPU内部的64位单元处理,只是少了多条指令的开销。另外是因为原本64位是只比较了一次,而SIMD需要经历CompareEqual
、MoveMask
最后还需和mask
掩码比较,总共次数多了2次。只能说明在我们的这个场景下,提升会比较有限。
需要注意目标平台需要能支持这些特殊的指令集,可以通过Sse2.IsSupported
方法来判断。
Avx2
既然128位的SSE系列指令集能在原来的基础上提升2%,那我们来看看支持256位的Avx2指令集会提升多少。代码和SSE指令集几乎一样,只是调用的方法类名变动了。
using System.Runtime.Intrinsics.X86; // 需要引入这个命名空间
namespace CompareByte;
public static class BytesCompare
......
public static unsafe bool Avx2Compare(byte[]? x, byte[]? y)
if (ReferenceEquals(x, y)) return true;
if (x is null || y is null) return false;
if (x.Length != y.Length) return false;
fixed (byte* xPtr = x, yPtr = y)
return Avx2CompareInternal(xPtr, yPtr, x.Length);
private static unsafe bool Avx2CompareInternal(byte* xPtr, byte* yPtr, int length)
byte* lastAddr = xPtr + length;
byte* lastAddrMinus128 = lastAddr - 128;
const int mask = -1;
while (xPtr < lastAddrMinus128)
// 更换为Avx2指令集,一次加载256位
if (Avx2.MoveMask(Avx2.CompareEqual(Avx.LoadVector256(xPtr), Avx.LoadVector256(yPtr))) != mask)
return false;
if (Avx2.MoveMask(Avx2.CompareEqual(Avx.LoadVector256(xPtr + 32), Avx.LoadVector256(yPtr + 32))) != mask)
return false;
if (Avx2.MoveMask(Avx2.CompareEqual(Avx.LoadVector256(xPtr + 64), Avx.LoadVector256(yPtr + 64))) != mask)
return false;
if (Avx2.MoveMask(Avx2.CompareEqual(Avx.LoadVector256(xPtr + 96), Avx.LoadVector256(yPtr + 96))) != mask)
return false;
xPtr += 128;
yPtr += 128;
while (xPtr < lastAddr)
if (*xPtr != *yPtr) return false;
xPtr++;
yPtr++;
return true;
再来看看跑分结果。
可以看到,Avx2指令集对于memcmp
和Sse2
是有一定的提升的,有2+%左右的速度提升,另外相较于原本的for
循环比较提升了86%。
SequenceCompare
那么是不是以后我们写比较两个数组相等的代码都要写这一长串的unsafe代码呢?其实并不是,在.NET Core时代引入了Span这个特性,这个特性就是为了能安全的直接操作内存;与此同时,也提供了SequenceEquals
方法,能快速的比较两个序列,使用也非常简单,那究竟性能怎么样呢?我们上代码,跑个分。
// 代码非常简单,只需要调用System.Linq.SequenceEqual方法即可
public static bool SequenceCompare(byte[]? x, byte[]? y)
if (ReferenceEquals(x, y)) return true;
if (x is null || y is null) return false;
if (x.Length != y.Length) return false;
return x.SequenceEqual(y);
结果也是相当不错的,比memcmp
和SSE2的方式都要快一点,略逊于Avx2,但是它用起来很简单,那么它是如何做到这么快的呢?让我们看看它的源码,
链接貌似也没有什么技巧,那是不是JIT编译的时候有优化,给自动向量化了呢?我们将代码复制出来,然后单独跑了一下,再用WinDBG打开,我们可以看到确实JIT优化引入了一些自动向量化(SIMD)的操作。
总结
通过这几种方案的对比,最推荐的用法当然就是直接使用.NET库提供的SequenceEquals
方法来完成比较,如果是在.NET Framework中,由于没有这样的优化,所以大家也可以尝试上文中提到的SSE2等方法。
那么大家还有什么其它好的方式呢?欢迎在评论区留言!
笔者水平有限,如有错漏请批评指正 :)
本文源码链接
参考文献
以上是关于.NET如何快速比较两个byte数组是否相等的主要内容,如果未能解决你的问题,请参考以下文章