相似性度量

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了相似性度量相关的知识,希望对你有一定的参考价值。

参考技术A 一、说明

相似性度量用以描述两个向量之间的相似性,是一个值域为一维的二元函数。一般情况,相似性度量本质上指距离度量,只不过数值指示刚好相反,如果是距离的话,数值越小,距离越近,而相似度越大;如果是相似度的话,数值越小,相似度越小,而距离越大。

相似性度量在机器学习中是一个非常基础的概念,尤其在聚类、推荐系统等算法中。

在工程应用中,也会使用一些不完全满足距离度量基本性质的“非距离度量”[1]。

二、距离度量的基本性质:

非负性:dist(x,y) >= 0

        同一性:dist(x,x) = 0

        对称性:dist(x,y) = dist(y,x)

        三角不等式:dist(x,z)+dist(y,z) >= dist(x,y)

三、常用相似性度量

1、闵可夫斯基距离(Minkowski Distance)

2、曼哈顿距离(Manhattan Distance)

p=1时,闵可夫斯基距离就是曼哈顿距离

又称城市街区距离,在方正的北京大街打车,行车距离就是曼哈顿距离,如果在山城重庆就不是了。

3、欧氏距离(Euclidean Distance)

p=2时,闵可夫斯基距离就是欧氏距离。

在平面几何或者立体几何中的距离,通常就是欧氏距离,所以欧氏距离也最容易理解。

4、切比雪夫距离(Chebyshev Distance)

p等于无穷大时,闵可夫斯基距离就是切比雪夫距离。

若将国际象棋棋盘放在二维直角坐标系中,格子的边长定义为1,座标的x轴及y轴和棋盘方格平行,原点恰落在某一格的中心点,则王从一个位置走到其他位置需要的最少步数恰为二个位置的切比雪夫距离,因此切比雪夫距离也称为 棋盘距离 。[2]

5、"加权(weighted)"闵可夫斯基距离

当样本中不同属性的重要性不同时,可使用"加权距离"(weighted distance)[1]。

6、余弦相似度(Cosine Similarity)

余弦相似性取值[-1,1],值越趋于1,表示两个向量的相似度越高。余弦相似度与向量的幅值无关,只与向量的方向相关,在文档相似度(TF-IDF)和图片相似性(histogram)计算上都有它的身影[3]。

7、皮尔逊相关系数(Pearson Correlation)

余弦相似度会受到向量的平移影响,怎样才能实现平移不变性?在余弦相似度的基础上,每个向量减去这个向量均值组成的向量,也就是皮尔逊相关系数,有时候也直接叫相关系数。

当两个向量均值都为0时,皮尔逊相对系数等于余弦相似性。

8、马氏距离(Mahalanobis Distance)

一个向量的不同维度如果是不同的量纲,更有甚者,维度之间是相关的,比如身高和体重组成的向量,在闵可夫斯基距离中等同对待,有时,这样是不恰当的。马氏距离利用 Cholesky transformation 消除了不同维度之间的 相关性 和 尺度不同 [3]。

其中,S为样本的协方差矩阵。当S是单位阵的时候,马氏距离就是欧式距离;当S是对角阵的时候,马氏距离是加权欧式距离。

很多时候,一个事物的有点也可能会构成它的缺点。这里马氏距离可以消除不同维度之间的不同尺度,就可能放大了变化细微维度的作用[4]。

我们可以按照连续性将属性分为“连续属性”和“离散属性”;也可以按照有序性将属性分为“有序属性”和“无序属性”[1]。上面的相似性度量都是关于“连续”并“有序”属性的,下面给出几个关于“离散属性”和“无序属性”的相似性度量。

9、汉明距离(Hamming Distance)

两个 等长字符串 s1与s2之间的 汉明距离定义为 将其中一个变为另外一个所需要作的最小替换次数。

例如:字符串“1 11 1001 1 ”与“1 00 1001 0 ”之间的汉明距离为3。

汉明距离可以在通信中累计定长二进制字中发生翻转的错误数据位,所以它也被称为信号距离。汉明重量分析在包括信息论、编码理论、密码学等领域都有应用。[5]

如果要比较两个不同长度的字符串,不仅要进行替换,而且要进行插入与删除的运算,在这种场合下,通常使用更加复杂的 编辑距离 等算法。[5]

10、杰卡德相似系数(Jaccard Similarity)

杰卡德相似系数是衡量两个集合的相似度一种指标

杰卡德相似系数是从相似性度量的角度来表述的,从距离度量的角度,则有 杰卡德距离(Jaccard Distance)

杰卡德相似系数和杰卡德距离本质上是一样的,只是表述角度不同。

在聚类中,杰卡德相似系数可以作为聚类的性能度量[1]。在推荐系统中,杰卡德相似系数可以度量两个购买若干商品的用户之间的相似性[3]。

11、KL散度(Kullback-Leibler Divergence)

又叫相对熵,表示两个随机分布之间的相似性

可以证明,KL散度大于等于0,当p=q时等于0;KL散度不满足对称性。

12、Hellinger距离(Hellinger Distance)

在七月算法的课程里,还讲了一个与KL散度类似的距离,表示随机分布之间的相似性的Hellinger距离

当α=0时

这时,Hellinger距离就是两个随机分布取平方根之后的欧式距离,符合距离度量的四个性质,是严格的距离度量。

四、参考

1、《机器学习》,周志华著

2、 切比雪夫距离——百度百科

3、 漫谈机器学习中的距离和相似性度量方法

4、 马氏距离——百度百科

5、 汉明距离

链接:https://www.jianshu.com/p/9b7166997a3e

来源:

以上是关于相似性度量的主要内容,如果未能解决你的问题,请参考以下文章

相似性度量(距离及相似系数)

相似性度量(距离及相似系数)

向量的相似性度量

机器学习中的相似性度量(Similarity Measurement)

机器学习中的相似性度量总结

机器学习中的相似性度量