评价一致度计算(Krippendorff's Alpha)

Posted guo-xiang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了评价一致度计算(Krippendorff's Alpha)相关的知识,希望对你有一定的参考价值。

当多个人或多种方法就同一问题给出不同的评价、标注或结果时,评价者间一致度(inter-rater reliability)计算可以给出一个数值,用来衡量这些结果之间的一致性程度,用来代表这些结果的可信程度。

计算评价者间一致度的方法有好几种,详见wiki(https://en.wikipedia.org/wiki/Inter-rater_reliability)。

 

Krippendorf‘s Alpha是计算评价者间一致度的方法之一,计算公式如下:

技术分享图片

具有以下特性及优点:

(1)评价者的个数任意

(2)不同评价结果的数量任意

(3)可以为不同种类的评价结果设定不同的差异衡量标准

(4)允许数据不完整

(5)对于大数量数据和小数量数据的处理方法相同

Krippendorf‘s Alpha一次只计算对于一个variable评价结果的一致性。计算过程如下:

技术分享图片

(1)得到关于某变量评价结果的矩阵

技术分享图片

(2)算出coincidence matrix

技术分享图片

对于某个unit,若存在某两个结果c和k,则对于这两个结果,c-k和k-c均要算进coincidence matrix

(3)选择衡量标准

技术分享图片

技术分享图片

技术分享图片

技术分享图片

技术分享图片

技术分享图片

(4)计算一致度

技术分享图片

参考论文:

[1]Computing Krippendorff’s Alpha-Reliability

PS:

(1)評等者間信度(inter-rater reliability):檢測兩位以上的醫護人員(或檢驗方法)診斷結果是否吻合,
(2)評等者內信度(intra-rater reliability):檢測同一位醫護人員(或檢驗方法)重覆診斷的結果是否一致。

以上是关于评价一致度计算(Krippendorff's Alpha)的主要内容,如果未能解决你的问题,请参考以下文章

集体智慧编程-读书笔记

指纹图谱相似度计算原理

使用word2vec计算词向量之间的相似度

类似度计算方法

协同过滤

聚类算法的评价指标——轮廓系数