论文分享 | 局部海明距离优化的深度哈希算法

Posted 广东大数据重点实验室

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了论文分享 | 局部海明距离优化的深度哈希算法相关的知识,希望对你有一定的参考价值。

讨论班信息



论文题目:Maximum-Margin Hamming Hashing

论文来源:ICCV 2019

论文链接:

http://ise.thss.tsinghua.edu.cn/~mlong/doc/maximum-margin-hamming-hashing-iccv19.pdf

报告人:梁雨宸

报告时间:2020.3.28 星期六 

报告地点:腾讯会议




论文分享 | 局部海明距离优化的深度哈希算法

摘要

       目前的深度哈希算法中,普遍使用深度学习来生成哈希码,在将神经网络取值连续的特征向量转换成离散的哈希码的问题上,存在着信息丢失、转换不准确等问题。本文提出一种将哈希距离直接引入损失函数进行约束的方法,通过设计针对海明距离半径内、外两种不同的损失,以优化连续特征向量转换成离散哈希码的质量。


论文分享 | 局部海明距离优化的深度哈希算法

(1)

       深度哈希的常见流程是,首先使用神经网络学习数据的特征,然后使用sigh( )函数将特征转换为取值{0,1}的哈希码。相比于深度学习中严谨的梯度优化,使用sigh( )非常简单粗暴,这种方式可能会大幅降低特征的质量。比如两个相似的特征,被转换为距离很远的哈希码。


论文分享 | 局部海明距离优化的深度哈希算法



论文分享 | 局部海明距离优化的深度哈希算法

(2)

      因此在学习特征的时候,大家希望网络输出的特征,取值尽可能接近{0,1}哈希码,这样可以减小转换哈希码的误差。常用的方法是在神经网络最后一个激活层,使用sigmoid或者tanh使特征的取值范围落在[0,1]或[-1,1]。比如HashNet提出一种使用渐进tanh作为激活层的方法。

论文分享 | 局部海明距离优化的深度哈希算法


论文分享 | 局部海明距离优化的深度哈希算法

(3)

      除了在网络输出的特征上考虑近似哈希码,许多研究也希望在连续值的特征距离上,也近似哈希码之间的海明距离计算。但海明距离也是离散的,无法直接参与梯度计算。如图所示,三位哈希码之间的海明距离可以用顶点路径表示。

论文分享 | 局部海明距离优化的深度哈希算法

论文分享 | 局部海明距离优化的深度哈希算法

(4)

      针对以上两个问题:1、哈希码转换误差2、特征距离近似海明距离。本文在同时考虑以上两点的同时,提出一种局部海明区域损失优化的哈希方法,使海明距离能够在深度网络的特征中体现。同时提出了针对同类样本和异类样本,在数据集较大的情况下,更优的损失方案。

论文分享 | 局部海明距离优化的深度哈希算法

(5)

      考虑到深度学习中batchSize在数据集类别数较大时,难以采集到正样本,文章也提出了一种针对性的采样方法,以保证每个batch中的正负样本相对平衡。

论文分享 | 局部海明距离优化的深度哈希算法

论文分享 | 局部海明距离优化的深度哈希算法

(6)实验

      实验效果表明,本文的方法比相关的哈希算法有一定的性能提升。

论文分享 | 局部海明距离优化的深度哈希算法





图文 / 梁雨宸

编辑 / 梁雨宸




以上是关于论文分享 | 局部海明距离优化的深度哈希算法的主要内容,如果未能解决你的问题,请参考以下文章

LSH(局部敏感哈希)算法

阿里&北大:深度哈希算法最新综述

UVALive - 4671 K-neighbor substrings (FFT+哈希)

局部敏感哈希算法

golang 实现海明距离 demo

如何理解局部敏感哈希? [关闭]