从分类,排序,top-k多个方面对推荐算法稳定性的评价
Posted wzjhoutai
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了从分类,排序,top-k多个方面对推荐算法稳定性的评价相关的知识,希望对你有一定的参考价值。
介绍
论文名: “classification, ranking, and top-k stability of recommendation algorithms”.
本文讲述比較推荐系统在三种情况下, 推荐稳定性情况.
与常规准确率比較的方式不同, 本文从还有一个角度, 即推荐算法稳定性方面进行比較.
具体
參与比較的推荐算法
包含:
- baseline
- 传统基于用户
- 传统基于物品
- oneSlope
- svd
比較方式
比較的过程分为两个阶段:
阶段一, 将原始数据分为两个部分, 一部分为已知打分, 还有一部分为未知打分, 用于预測.
阶段二, 在用于预測打分那部分数据中, 取出一部分数据, 增加到已知打分部分, 剩余部分仍然为预測部分.
比較阶段一中的预測结果和阶段二中预測结果的比較.
数据划分情况如图所是.
比較的方式
预測稳定性
预測性的评价方式有下面几种:
MAE, RMSE
分类稳定性
分类型的评价方式有下面几种:
准确率, 召回率, F-分数.
排名稳定性
排名型的评价方式有下面几种:
排名相关性, Spearman的
前K项稳定性
前k项的评价方式有下面几种:
点击率稳定性(hit-rate), NDCG(normalized discounted cumulative gain).
比較的场景
稀疏性冲击
改变数据的稀疏性, 从几个方面比較这些推荐算法的稳定性.
结果如图所是.
基于内存的推荐算法和slopeone算法表现出强烈的不稳定性和对数据敏感性.
svd和baseline算法相对稳定.
评价数量冲击
改变第二阶段中新增加数据的数量, 比較两次实验的差异.
结果如图所是:
横坐标为比例, 即已知打分数据的倍数, 从10%到500%.
从图中能够看出, 在新增加的数据较少时, 各个推荐算法表现出高度的稳定性.
当新增加的数据较多时, 基于内存的推荐算法的稳定性不断下降.
相反, 基于模型的方法相对稳定.
打分分布冲击
除了新增加的数据外, 新增加的数据的数据分布也一定程度上影响了推荐算法的稳定性.
下表显示了改动数据分布的策略:
实验的结果例如以下:
从图中能够看出, 当增加的数据为随机时, 各个推荐算法都表现出相对较高的稳定性.
可是, 当增加的数据出现歪斜时, 基于内存的推荐算法的稳定性减少较快, 基于模型的推荐算法的稳定性基本保持不变.
算法參数冲击
对于推荐算法而言, 除了数据的因素外, 还有算法本身參数对算法稳定性的影响.
对于基于内存的算法, 类似用户/物品的数量影响着推荐算法的效果,
对于svd算法, 隐含属性的数量影响着推荐算法的结果.
实验通过改动推荐算法參数的方式进行比較, 结果如图所时:
对于top-K的比較, k值的大小也影响推荐算法的稳定性.
通过改动k的大小, 实验的结果如图所时:
实验结果表示:
对于改动算法的參数, 对svd算法的影响较少, 对于基于内存的算法影响较大.
改动top-k中k的大小, 对基于模型的推荐算法影响较小, 对于基于内存的推荐算法的稳定性影响较大.
总结
对于上面多种情况的比較.
基于模型的推荐算法在多种情况下, 稳定性较高, 特别时svd算法.
基于内存的推荐算法稳定性较差.
以上是关于从分类,排序,top-k多个方面对推荐算法稳定性的评价的主要内容,如果未能解决你的问题,请参考以下文章
算法漫游指北(第六篇)双端队列排序算法分类排序算法的稳定性排序算法复杂度
算法漫游指北(第六篇)双端队列排序算法分类排序算法的稳定性排序算法复杂度