混进iOS 14.3!网友爆出苹果CSAM检测技术出现哈希冲突

Posted 程序员大咖

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了混进iOS 14.3!网友爆出苹果CSAM检测技术出现哈希冲突相关的知识,希望对你有一定的参考价值。

????????关注后回复 “进群” ,拉你进程序员交流群????????

来源丨新智元


  新智元报道  

来源:Reddit

编辑:Priscilla 好困

【新智元导读】苹果计划推出在ios 15中应用的CSAM检测系统备受争议。近日,一位Reddit用户发现CSAM算法竟被悄悄地「埋在了」iOS 14.3里。而算法公开几小时后,一位英特尔实验室的研究员就发现了其存在的缺陷:哈希冲突

苹果偷偷将CSAM检测技术算法放进iOS14.3里!

 

前段时间,苹果宣布计划推出CSAM检测技术,能够扫描所有存储在iCloud上的照片,找出符合虐待儿童、儿童色情内容的照片(CSAM)。

 

该功能本该在今年9-10月份上线,却被Reddit网友发现CSAM检测技术的算法NeuralHash已经混进了现在的系统里。

 

即便苹果的初衷是好的,但在大多数人眼里,苹果是在监视用户的一举一动。

 

 

新闻一发布,GitHub上就有超过6000多家组织和个人签署联名信,强烈谴责苹果这项侵犯个人隐私的新技术。

 

 

而德国有关部门也致信库克,希望苹果能够重新考虑CSAM检测计划。

 

但现在苹果却想要试图蒙混过关了吗?!

网友发现算法早已存在

昨日,Reddit用户AsuharietYgvar表示:

 

在iOS 14.3里,NeuralHash就已经隐藏在混淆类名里了。

 

Ygvar对隐藏的API进行了一些挖掘和逆向工程,成功将MobileNetV3模型导出到ONNX。

 

还在Python中重建了整个NeuralHash算法,甚至可以在Linux上测试NeuralHash。

 

 

苹果的NeuralHash是一种基于神经网络的图像感知哈希方法,并且可以不受对图像大小的调整和压缩的影响。

 

https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX

 

哈希算法的步骤:

  1. 将图像转换为RGB。

  2. 调整图像大小为360x360。

  3. 将RGB值归一化为[-1, 1]范围。

  4. 对NeuralHash模型进行推理。

  5. 计算96x128矩阵与所产生的128个浮点的向量的点积。

  6. 对产生的96个浮点数向量应用二进制步骤。

  7. 将1.0和0.0的向量转换为比特,得到96位二进制数据。

AsuharietYgvar则列举了这就是苹果所采用的算法的证据。

首先,模型文件的前缀是NeuralHashv3b-,与苹果的文件中的术语相同。

(https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf)

其次,苹果对算法描述的细节也与Ygvar的发现相同:

「第二,描述符被传递到一个哈希方案,将N个浮点数转换为M位。这里,M远远小于 这里,M远远小于表示N个浮点数所需的比特数。」

从下面这两段代码中可以看到,N=128,M=96。

此外,如果调整图片的大小或压缩图片,这个脚本产生的哈希值几乎没有变化,这又和苹果的文件中描述的一样。

值得注意的是,不同设备生成的哈希值会有几位的差异。

这是由于神经网络基于浮点计算,精度在很大程度上取决于硬件。

对于NeuralHash这种有200多层的网络来说,会导致大量的累积误差。

 

哈希冲突

公开代码后的短短几小时内,英特尔实验室的研究人员Cory Cornelius就发现了两张毫无关联的照片竟然有一样的哈希值!

 

$ python3 nnhash.py NeuralHash/model.onnx neuralhash_128x96_seed1.dat beagle360.png59a34eabe31910abfb06f308$ python3 nnhash.py NeuralHash/model.onnx neuralhash_128x96_seed1.dat collision.png59a34eabe31910abfb06f308

 

哈希值同为59a34eabe31910abfb06f308

 

随后AsuharietYgvar也证实了这个发现。

 

 

哈希是将任意长度的数据映射到有限长度的域上,并使输出作为这段数据的特征。

同时,哈希算法所计算出来的哈希值(Hash Value)具有不可逆(无法逆向演算回原本的数值)的性质。

 

通常来说,哈希算法具有以下特点:

  1. 相同的输入一定得到相同的输出;

  2. 不同的输入大概率得到不同的输出。

但是由于通过哈希函数产生的哈希值是有限的,当输入数据量达到一定的程度时,就会导致不同的数据在经过哈希函数处理之后产生相同的值。

这也就产生了哈希冲突。

 

然而,早在8月8日,有技术人员就指出,NCMEC采用的PhotoDNA感知哈希算法存在缺陷。

 

也就是说,如果有人利用被NCMEC标注的图片的哈希值改变其他图片,那么任何存储这些图片的人都将拥有儿童色情制品。

 

https://www.hackerfactor.com/blog/index.php?/archives/929-One-Bad-Apple.html

 

微软表示「PhotoDNA的哈希值是不可逆的」。

 

https://www.microsoft.com/en-us/photodna 

而实际上,PhotoDNA哈希值可以投射到26x26的灰度图像中,只是有点模糊,但细节足以识别人和物。

 

而且逆向PhotoDNA哈希值并不比解开26x26的数独题更复杂,这是一项非常适合计算机的任务。

 

同样,Cory Cornelius发现苹果的NeuralHash也能被同样的手法欺骗。

 

 

利用模型得到狗图像的哈希值,然后让模型去改变灰度图像,使其输出与狗图像相同的哈希值。

 

根据鸽巢原理可知,这是一个第二次原像攻击问题。

 

对此,加州大学伯克利分校的高级研究员Nicholas Weaver表示:「这只是用一些垃圾图像骚扰苹果的响应团队而已」。

 

而SIXGEN公司网络产品总监Ryan Duff说:「看起来苹果的算法相当容易受到原像攻击」。

 

解释?狡辩?

苹果在一份白皮书中解释,CSAM检测技术将在用户的设备上运行。

 

检测技术会扫描用户上传到iCloud上的照片,将图像转换成哈希值后,与已知CSAM照片的哈希数据库进行比对。

 

如果两者哈希值匹配次数超过30次,系统就会标记这个图像,由团队审查。

 

而英特尔实验室研究人员发现两张图片哈希值相同后,苹果作出的解释是:

 

GitHub分析的版本只是一个通用版本。

 

如果照片30次的哈希值比对都一样,CSAM检测技术还有另一个非公开的算法。

 

 

「非CSAM图像被对抗性干扰,令NeuralHash与设备上加密但CSAM数据库相匹配,导致超过了匹配阈值,这个可能性很低,但这个独立的哈希就是为了避免出现这种可能性。」

 

照这么说,Ygvar逆向出来的代码发生哈希冲突也没有关系,苹果还有「双保险」。

 

但是,苹果似乎没有get到重点:

 

CSAM检测技术已经悄悄地安排上了。

 

参考资料:

https://www.reddit.com/r/MachineLearning/comments/p6hsoh/p_appleneuralhash2onnx_reverseengineered_apple/

https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX

-End-

最近有一些小伙伴,让我帮忙找一些 面试题 资料,于是我翻遍了收藏的 5T 资料后,汇总整理出来,可以说是程序员面试必备!所有资料都整理到网盘了,欢迎下载!

点击????卡片,关注后回复【面试题】即可获取

在看点这里好文分享给更多人↓↓

以上是关于混进iOS 14.3!网友爆出苹果CSAM检测技术出现哈希冲突的主要内容,如果未能解决你的问题,请参考以下文章

苹果新算法已混进 iOS 14.3!CSAM 检测技术再遭网友争议

苹果藏在 iOS 14.3 中的新算法被发现,CSAM 检测技术再遭抗议!

苹果藏在 iOS 14.3 中的新算法被发现,CSAM 检测技术再遭抗议!

iOS 14.3首个测试版发布,暗示苹果又有新品发布?

iOS 14.3首个测试版发布,暗示苹果又有新品发布?

iOS14.3 重大更新,苹果的杀手锏来了!