从分类,排序,top-k多个方面对推荐算法稳定性的评价

Posted wzjhoutai

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了从分类,排序,top-k多个方面对推荐算法稳定性的评价相关的知识,希望对你有一定的参考价值。

介绍

论文名: “classification, ranking, and top-k stability of recommendation algorithms”.
本文讲述比較推荐系统在三种情况下, 推荐稳定性情况.
与常规准确率比較的方式不同, 本文从还有一个角度, 即推荐算法稳定性方面进行比較.

具体

參与比較的推荐算法

包含:

  1. baseline
  2. 传统基于用户
  3. 传统基于物品
  4. oneSlope
  5. svd

比較方式

比較的过程分为两个阶段:

阶段一, 将原始数据分为两个部分, 一部分为已知打分, 还有一部分为未知打分, 用于预測.
阶段二, 在用于预測打分那部分数据中, 取出一部分数据, 增加到已知打分部分, 剩余部分仍然为预測部分.

比較阶段一中的预測结果和阶段二中预測结果的比較.
数据划分情况如图所是.

技术分享

比較的方式

预測稳定性

预測性的评价方式有下面几种:
MAE, RMSE

分类稳定性

分类型的评价方式有下面几种:
准确率, 召回率, F-分数.

排名稳定性

排名型的评价方式有下面几种:
排名相关性, Spearman的ρ评价, Kruskal的γ评价, Kendall的τ评价.

前K项稳定性

前k项的评价方式有下面几种:
点击率稳定性(hit-rate), NDCG(normalized discounted cumulative gain).

比較的场景

稀疏性冲击

改变数据的稀疏性, 从几个方面比較这些推荐算法的稳定性.

结果如图所是.

技术分享

基于内存的推荐算法和slopeone算法表现出强烈的不稳定性和对数据敏感性.
svd和baseline算法相对稳定.

评价数量冲击

改变第二阶段中新增加数据的数量, 比較两次实验的差异.

结果如图所是:

技术分享

横坐标为比例, 即已知打分数据的倍数, 从10%到500%.

从图中能够看出, 在新增加的数据较少时, 各个推荐算法表现出高度的稳定性.

当新增加的数据较多时, 基于内存的推荐算法的稳定性不断下降.
相反, 基于模型的方法相对稳定.

打分分布冲击

除了新增加的数据外, 新增加的数据的数据分布也一定程度上影响了推荐算法的稳定性.

下表显示了改动数据分布的策略:

技术分享

实验的结果例如以下:

技术分享

从图中能够看出, 当增加的数据为随机时, 各个推荐算法都表现出相对较高的稳定性.
可是, 当增加的数据出现歪斜时, 基于内存的推荐算法的稳定性减少较快, 基于模型的推荐算法的稳定性基本保持不变.

算法參数冲击

对于推荐算法而言, 除了数据的因素外, 还有算法本身參数对算法稳定性的影响.

对于基于内存的算法, 类似用户/物品的数量影响着推荐算法的效果,
对于svd算法, 隐含属性的数量影响着推荐算法的结果.

实验通过改动推荐算法參数的方式进行比較, 结果如图所时:

技术分享

对于top-K的比較, k值的大小也影响推荐算法的稳定性.
通过改动k的大小, 实验的结果如图所时:

技术分享

实验结果表示:

对于改动算法的參数, 对svd算法的影响较少, 对于基于内存的算法影响较大.

改动top-k中k的大小, 对基于模型的推荐算法影响较小, 对于基于内存的推荐算法的稳定性影响较大.

总结

对于上面多种情况的比較.
基于模型的推荐算法在多种情况下, 稳定性较高, 特别时svd算法.
基于内存的推荐算法稳定性较差.
















以上是关于从分类,排序,top-k多个方面对推荐算法稳定性的评价的主要内容,如果未能解决你的问题,请参考以下文章

算法漫游指北(第六篇)双端队列排序算法分类排序算法的稳定性排序算法复杂度

算法漫游指北(第六篇)双端队列排序算法分类排序算法的稳定性排序算法复杂度

算法笔记之排序

九大排序算法Java实现

:排序算法 -- 排序算法介绍和分类算法的时间效率(时间频度和时间复杂度)算法的稳定性

算法与数据结构