0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

top-N推荐算法评测的影响有哪些?

深度学习自然语言处理 来源:CSDN技术社区 作者:CSDN技术社区 2020-10-23 11:40 次阅读

近十年里,top-N商品推荐是隐式反馈中一个被广泛研究的课题[1],其目的是从大量数据中识别出用户可能偏爱的一小部分物品。各种top-N物品推荐算法已经被开发出来,特别是基于深度学习的研究取得了很大的进展[2]。

为了证明推荐算法的有效性,需要在基准数据集上建立可靠的评价实验。通常,这样的评估过程包括一系列对于数据集、指标、基线方法和其他方案的设置。由于每个设置步骤可以选择不同的选项,需要制定和设计适当的标准,以使实验设置标准化[3,4]。为此,有必要对近期研究中有分歧的实验设置进行系统的回顾。

在这篇论文中,对于不同的实验设置对评价top-N商品推荐算法的影响,我们设计了一个经验性的大规模实验。我们试图找出导致近期评测工作中出现分歧的重要评估设置[2,7]。具体来说,考虑三个重要的影响因素,即数据集分割、采样指标和数据领域选择。数据集分割是指利用原始数据构造训练集、验证集和测试集;采样指标是指用采样方法获得不相关物品来计算评测指标的结果;数据领域选择是指从不同领域中选择合适的数据集进行评估。

为了检验这三个因素的影响,我们在Amazonreview数据集[8]上进行了大量的实验,其中包含来自24个领域的1.428亿条用户交互记录。top-N物品推荐本质上是一项排序任务。与先前的工作[3,6]不同,本文并不关心特定方法的性能,而是研究一个特定的实验设置因素如何影响不同方法的总体排序。本文选取了8种具有代表性的推荐算法作为比较方法,包括传统方法和基于神经网络的方法。我们利用三种序列相关性指标来刻画排序结果的差异。

我们的实验得到了以下结论。首先,对于数据集分割,随机切分与时序切分产生了一定程度上不同的方法排序。数据集的切分方式应该取决于特定的任务。建议在一般情况下采用随机切分的方式划分数据集合,而对时间敏感的任务采用按照时序划分方式(如序列推荐)。第二,基于采样指标的表现排名与精确排名的相关性略弱,增加采样物品的数量会提高排序相关性程度。在使用采样指标时,研究人员应尽可能采样较多的不相关物品。最后,具有不同领域特征或稀疏程度的数据集合可能会产生不太相同的表现排名。一个较优的策略是选择能够涵盖多个领域、不同方面的代表性数据集。

实验设置与方案

2.1 实验设置

在这一部分中,我们描述数据集、比较方法和评估指标,来准备进行实验。

数据集。我们采用亚马逊产品评论数据集[8]进行评估,其中包含来自24个领域的1.428亿条评论。对于top-N物品推荐,每条评论被视为用户和某个物品之间的交互记录,而其余信息则被丢弃,比如文本和元数据。由于几种比较方法无法在有限的时间内对Book领域的数据集得出结果,因此为了提高效率,我们删除了这个领域。最后,我们使用来自其余23个领域的用户项交互数据作为最终数据集。我们进一步采用5-core的预处理方式,删除了不活跃的用户和不经常被点击的商品。

比较方法。我们选取了八种推荐算法,包括popularity,ItemKNN,SVD++ [9]和BPR [1],DSSM [10],NCF [11],DIN [12] 和 GCMC [13]。在这八种方法中,popularity和ItemKNN主要基于简单的全局或物品特定的统计,SVD++和BPR利用矩阵分解技术,DSSM和NCF利用神经网络建模用户-物品交互,DIN通过关注现有行为来学习用户偏好,GCMC采用图神经网络进行推荐。这八种方法很好地涵盖了传统方法和基于神经网络的方法。在本文中,我们只考虑general item recommendation,而不考虑context-awarerecommendation或sequential recommendation。注意,我们的重点不是确定最佳算法,而是研究不同实验设置对最终表现排名的影响。

评价指标。Top-N项目推荐可以视为一项排序任务,排在前端的结果需要重点考虑。根据[4-14],在下面的实验中,我们使用了四个指标:(1)顶部K个位置的截断精度和召回率(P@K and R@K),(2)平均准确率(MAP),(3)ROC曲线下面积(AUC)。我们还计算了另外两个指标的结果nDCG@K和MRR。它们与上述四个指标产生了相似的结果,我们省略了对应的实验结果。

2.2实验方案

在本节中,我们将介绍用于比较top-N商品推荐的实验方案。

配置。我们引入“配置”一词来表示上述三个因素的不同选择的组合,即数据集分割,采样指标和领域选择。我们选择这三个因素是因为这些在最近的基于神经网络的方法文献中仍然存在一定的分歧(缺乏标准化的讨论)。注意,我们不会列举这三个因素的所有可能选项,我们只考虑近期研究中流行或有争议的选项。为了减少其他因素的影响,我们可能通过不同的选项单独报告结果,也可能根据先前的研究[3-6]将其设置为建议的选项。

相关测量。在给定配置的情况下,我们可以获得基于某种指标的八种比较方法的一个排序列表。我们采用三种排序相关性度量来刻画两个排序之间的相关性或相似度:(1)Overlap Ratio at top-k positions (OR@k);

(2)Spearman’s Rank Correlation (SRC);

(3)Inversion Pair Count (IPC)。

选择这三种方法的理由如下。SRC刻画了整体排序的相关性,IPC提供了对SRC值的更直观的理解,对于商品推荐,排名靠前的位置需要更多关注,可由OR@k刻画。

实验步骤。给定一个指标,我们首先根据配置(用验证集优化)导出八种方法的表现排序。为了检验一个因素的影响,我们将通过考虑备选方案来生成多个配置。然后,利用上述指标计算两种不同配置下的表现排名之间的关联度。最后,相关结果将在23个数据领域上取平均值(除第4.3节之外)

实验

在这一部分中,我们给出了与数据集分割、采样指标和数据领域选择三个因素相关的实验结果。当考虑一个因素时,我们会固定其余两个因素。也就是说,在两个配置进行比较的情况下,我们只改变所研究的因素,而将其余的设置设为相同的。

3.1 数据集切分分析

我们首先研究不同的数据集切分策略(即构建训练/验证/测试集)对表现排名的影响。

设置。对于每个用户,我们首先使用两种方法组织用户的交互记录:(1) 随机排列(RO),随机选择商品;(2) 时序排列(TO),根据交互时间戳对商品进行排序。然后,可以使用以下两种常用方法拆分重新排序的用户项交互序列:(1)基于比率的分割(Ratio-basedSplitting, RS),根据预定比率将数据集分为三个部分,以进行训练,验证和测试,此处将比例设置为8:1:1。我们重复此过程五次,以生成不同的评估集,计算平均结果。(2)Leave-one-out分割(LS),选择一个物品作为测试集,另一个物品作为验证集,其余物品全部作为训练集。LS策略可以看作是RS的一个特例,当其中验证集和测试集都只包含一个项目。考虑到物品排序和切分方式,可以生成了四个组合,如图1所示。

图1:四种切分策略的说明性示例。用户与20个物品交互。项目i的下标表示与用户的交互顺序:较小的索引表示较早的交互时间。我们使用标准、划线和灰色框分别表示训练集、验证集和测试集。

结果。表1中给出了两种不同配置之间的比较结果。首先,与切分法(比率法或留一法)相比,物品排列方式(随机排列或时序排列)对表现排名的影响更为显著。对于每一个指标,表中前两行的相关性数值显著弱于最后两行的相关性数值。时序排列本质上应用于序列化推荐(Sequential recommendation)的设置。建议在一般情况下(尤其是评估时序不敏感的推荐算法)应采用随机排序,而在时序敏感的情况下(如序列化推荐)采用时序排列。第二,使用相同的物品排列方式,两种切分方法生成的算法排序非常相似(请参见每个度量的最后两行)。实际上,在最近的文献[8,11]中,留一法(leave-one-out)评测已经被广泛采用。我们建议在一般情况下使用基于比率的切分方式,以获得更准确的评估。然而,对于小数据集,留一法切分可以缓解数据稀疏,并且简化评测环节。

表1:数据集合切分不同配置的相关性比较。所有结果都是基于23个领域进行平均获得的。这里,“RS”和“LS”表示基于比率的分割和leave-one-out分割;“RO”和“TO”表示随机排列和时序排列。“↑”(“↓”)表示越大(小)效果越好。

3.2采样指标分析

接下来,我们研究抽样指标(Sampled metrics,只使用一组采样不相关物品用于评测指标的计算)对表现排名的影响

采样设置。对于测试环节,当物品集合很大时,将项目集中的所有未交互物品都作为候选对象是很费时的。所以,目前一种流行的方法是将采样一小部分不相关物品进行计算。这种方法称为采样指标[7]。我们考虑了两种采样策略:随机采样和流行度采样,即根据均匀分布或基于频率的分布对不相物品进行采样。我们进一步考虑使用三个不同数量的不相关样本,即{10,50,100},这意味着一个真实物品将与10个、50个或100个采样获得的不相关物品配对。当我们采用leave-one-out法分割时,情况变为real-plus-N[3,6]。为了进行比较,我们将整个商品集(不包括真实物品)的排序作为参考排名。根据第4.1节,对于数据集切分,在所有比较配置中采用基于比率的数据集分割(用RS表示)和随机排序(用RO表示)。

实验结果。表2展示了不同采样指标的相关结果,这些结果远小于表1中的数值。这表明使用采样指标对表现排名有较大影响。事实上,最近的研究已经讨论过这样一个问题[7]:采样指标可能得不到一致的排序。另一个观察的结果是,采样更多不相关的项目增加了采样指标和准确指标之间的相关度。最后,不同的采样策略可能会导致某些特定算法的表现动荡,从而严重影响表现排名。比较两种采样策略,均匀采样与整体排名的相关性似乎更高。一般来说,采样指标不应使用于小数据集。如果需要,我们建议采样更多不相关的物品(如[9]建议的1000个项目)。

表2:采样指标不同配置的相关性比较。表中结果对于23个领域进行了平均。“∆={RO,RS}”表示用于使用随机排序对于物品进行排列,使用基于比率的方法进行切分,“pop”/“uni”表示流行度/均匀采样,下标表示采样数量,“all”表示使用所有物品进行评测。

3.3数据邻域选择分析

这里,我们考虑不同领域是否会导致不同的表现排名。这个问题对于回答如何选择合适的数据集进行评测很有用。

实验设置。给定两个领域,我们首先根据第4.1节和第4.2节中建议的设置(RO,RS,all)生成一个配置,然后基于某个指标获得每个领域下的表现排名。然后,我们计算了两个领域排名之间的Spearman’sRank Correlation得分。我们对所有指标的SRC得分取平均值。最后的分数用来衡量两个领域之间的相关性。

实验结果。图2显示了两个领域之间的平均相关结果。我们对行和列进行重新排序,以便可以在对角线上聚合较大的值。有趣的是,整个热度图似乎包含四大块(组),其中组内相关值高于组间相关值。结果表明,在相同的配置下,不同的领域可能会产生不同的表现排名。因此,评估时应考虑领域差异。通过对数据集的考察,我们发现领域特征(例如,第一组主要对应于数字产品)和稀疏程度(如用户-项目交互比率)似乎对相关结果有显著影响。使用多个来来自于不同领域、稀疏度不同的数据集是个好方法。这里,“领域”是指Amazon数据集的类别。我们将在未来的工作中使用更多的数据集来研究这个问题。

图2:成对领域相关性的可视化。每个单元格表示两个领域之间计算的相关性分数(颜色越深表示值越大)。

结语

我们通过实验检验了三个重要因素对于top-N推荐算法评测的影响。我们的实验结果为物品推荐算法提出了一些经验建议。首先,对于数据集切分,建议使用基于比例切分方式并且使用随机物品排列方式(非时序推荐任务),而leave-one-out切分方式可以用于较小数据集或者加快评测流程(如调参过程)。第二,应该谨慎使用采样指标。如果使用,我们建议加大采样样本数。第三,建议使用来自不同领域的多个数据集合作为评测数据集合。在未来的工作中,我们还将研究更多因素和数据集合来进一步完善当前的工作。

责任编辑人:CC

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • top-N
    +关注

    关注

    0

    文章

    2

    浏览量

    6521

原文标题:【CIKM2020】如何更为合适地评测推荐算法? Top-N物品推荐算法评测设置回顾

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    什么是Turbo 码的迭代译码算法?当前Turbo译码算法哪些?哪些形式的Turbo 码?

    什么是Turbo码的迭代译码算法?Turbo 码获得优异性能的第二个重要因素是应用了基于最大后验概率准则 (MAP) 的迭代译码算法。当前Turbo译码算法哪些?(1) 标准
    发表于 05-30 16:24

    开箱图赏与评测---易行丁丁行车记录仪

    、MIC口、TF卡槽等具体位置,严实的卡在盒子里,塑料的旁边便于拿出易行丁丁的凹处。 n撕掉塑料膜拿出易行丁丁,找到配件支架、车载电源适配器。n全家福。整体外观图与评测
    发表于 04-12 22:01

    请问TOP MARK查询的功能吗?

    ADI网站有没有TOP MARK查询的功能?或者有没有相关文档下载?一个DAC芯片,TSSOP10封装,应该是AD公司的,上面的标记是MBABX66C一般第二排是生产批号来的
    发表于 11-28 09:27

    基于蚁群聚类的top-N推荐系统

    本文先将原始Web 日志进行预处理,即对Web 日志进行数据清洗,用户识别,会话识别和格式转换等。再用蚁群聚类算法对预处理后的日志进行聚类分析,提取具有代表性的用户访
    发表于 12-22 12:01 9次下载

    基于SQL Server2000图像算法评测软件设计

    介绍了一种基于SQL Server图像算法评测实验软件设计方案,采用面向对象方法设计,将数据封装模块化,使用SQL Server管理算法及测试数据。
    发表于 12-07 14:14 27次下载
    基于SQL Server2000图像<b class='flag-5'>算法</b><b class='flag-5'>评测</b>软件设计

    基于分簇的无线传感器网络Top_K数据查询算法_江欣

    基于分簇的无线传感器网络Top_K数据查询算法_江欣
    发表于 03-19 19:19 0次下载

    叮咚TOP智能音箱开箱评测_用语音完成交互,这是一台有生命的音响

    本文对叮咚TOP智能音箱开箱进行了评测,外观评测:简洁、创意,光圈增添了生命力;交互&APP:语音识别率高,内容全面、丰富;音质:中频表现突出,适合听柔和音乐及有声读物;DingDong音箱是全方位的,没有方向区分,在任何角度都
    发表于 12-29 10:11 5977次阅读

    Top-k相似连接算法性能优化

    相似连接算法在数据清理、数据集成和重复网页检测等领域有着广泛的应用.现有相似连接算法有两种类型:基于相似度阈值的相似连接和Top-k相似连接.Top-k连接
    发表于 01-05 10:30 0次下载

    一种改进的top-N协同过滤推荐算法

    针对传统的相似度计算方法仅依靠用户评分信息矩阵来计算物品或用户相似度,物品相似度的计算考虑了所有用户的历史反馈信息等问题,提出一种改进的协同过滤推荐算法。以所有物品的度的平均值作为阂值,在用户相似
    发表于 01-14 16:43 0次下载

    分布式网络下改进的Top-k查询算法

    现有Top-k查询算法主要运用在集中式关系型数据库中,当应用于分布式网络时会产生巨大的通信开销,导致算法效率低下。为此,提出一种改进的Top-k查询
    发表于 02-26 14:30 0次下载
    分布式网络下改进的<b class='flag-5'>Top</b>-k查询<b class='flag-5'>算法</b>

    华为nova 5iPro评测 后置四摄真吸睛

    不久之前,我们评测了华为nova 5i,在评测的末尾笔者写道:“华为nova系列必将成为华为手机强劲的增长点,进而推动华为向TOP1迈进”。
    的头像 发表于 08-23 09:54 2.2w次阅读

    结合本体语义和用户属性的改进协同过滤算法

    度矩阵,同时引入用户属性计算用户相似度矩阵。通过融合本体语义和用户属性形成用户-项目评分矩阵,并对该矩阵的预测评分进行加权处理,生成TOP-N推荐结果。实验结果表明,相比传统皮尔逊相似度计算协同过滤算法、基于本体语义
    发表于 05-25 16:24 1次下载

    调度算法评测与仿真系统 调度算法仿真系统介绍

    调度算法效果评测上有五个挑战,一是效率低,一个迭代平均效果评估回收时间需要两周左右。二是不受控,我们无法控制线下运维的执行情况。
    的头像 发表于 09-23 12:00 1507次阅读

    OpenMMLab 各算法库的评测指标集成

    MMEngine 提供了强大灵活的训练引擎,以及常见的训练技术,以满足用户多样的模型训练需求。对于模型评测的需求,MMEngine 也提供了评测指标(Metric)和评测器(Evaluator)模块,下游
    的头像 发表于 11-03 10:16 579次阅读

    5G手机综合评测TOP排行榜

    本次选取2022年1月至2022年9月上市的5G手机,涉及10个品牌33款产品,分三个价位段进行综合能力评测
    发表于 12-21 15:02 449次阅读