期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
细节决定成败:推荐系统实验反思与讨论 被引量:1
1
作者 施韶韵 王晨阳 +3 位作者 马为之 张敏 刘奕群 马少平 《信息安全学报》 CSCD 2021年第5期52-67,共16页
近些年来,随着互联网的迅速发展,用户在各种在线平台上接收到海量的信息,信息爆炸成为一个关键性问题。在此背景下,推荐系统逐步渗透到人们工作生活的各个场景,已成为不可或缺的一环。它不仅可以帮助用户快速获得想要的信息和服务,还可... 近些年来,随着互联网的迅速发展,用户在各种在线平台上接收到海量的信息,信息爆炸成为一个关键性问题。在此背景下,推荐系统逐步渗透到人们工作生活的各个场景,已成为不可或缺的一环。它不仅可以帮助用户快速获得想要的信息和服务,还可以提高资源利用效率,从而给企业带来更多效益。因此,个性化推荐算法不仅获得了工业界广泛的关注,也是科研领域的研究热点之一。在个性化推荐的研究中,受限于平台与效率等因素,研究者大多无法将算法部署到在线系统上进行评价,因此离线评价成为推荐领域研究的主要方式。然而个性化推荐涉及到的场景复杂,可获得的数据信息多种多样,用户行为多为隐式反馈且存在许多噪声,这使得推荐系统离线评价的实验设定复杂多变,存在大量易被忽视却十分重要的细节。比如在训练采样负例时,既可以仅从用户没有交互过的商品中采样,也可以将验证测试集的商品视作未知交互加入采样池。同样,从训练到测试在很多其他环节也涉及这样的实现细节(如数据集处理、已知负样本的使用、Top-N排序候选集范围等)。这些实验细节通常不会在学术论文中被显式提及,却潜在影响了模型效果的对比,还决定着实验的科学性,甚至会导致相反或错误的分析结论。本文从数据集处理、模型训练、验证与测试、效果评价等多个角度,系统地讨论与反思了推荐系统实验中的细节设定。对于每个环节,我们枚举了若干常见设定,并在真实数据集上验证了其中某些设定的实际影响。实验结果表明一些细节确实会导致关于模型优劣的不同结论。最终我们形成了关于推荐系统实验细节的指导性总结,包括可选、建议、必须的三类设定,希望帮助推荐算法研究者规避实现细节上的陷阱,更科学合理地设计实验。 展开更多
关键词 推荐系统 实验设计 算法评价 反思与讨论
下载PDF
结合用户长短期兴趣的深度强化学习推荐方法 被引量:10
2
作者 阎世宏 马为之 +2 位作者 张敏 刘奕群 马少平 《中文信息学报》 CSCD 北大核心 2021年第8期107-116,共10页
结合强化学习(特别是深度强化学习)的推荐算法,在近年来相比已有方法取得了较大的提升。然而,现有绝大多数基于深度强化学习的推荐方法仅使用循环神经网络(RNN)等方法学习用户的短期兴趣,忽略了用户的长期兴趣,导致对用户的兴趣建模存... 结合强化学习(特别是深度强化学习)的推荐算法,在近年来相比已有方法取得了较大的提升。然而,现有绝大多数基于深度强化学习的推荐方法仅使用循环神经网络(RNN)等方法学习用户的短期兴趣,忽略了用户的长期兴趣,导致对用户的兴趣建模存在不足。因此,该文提出一种结合用户长期兴趣与短期兴趣的深度强化学习推荐方法(LSRL)。首先,LSRL方法使用协同过滤方法来学习用户的长期兴趣;其次,LSRL方法利用门控循环单元(GRU)对用户最近的正反馈与负反馈交互记录进行建模学习,得到用户的短期兴趣表示;最后,LSRL方法重新设计了深度强化学习的Q-网络框架,结合两方面的用户兴趣表示并将其应用于深度Q-网络(Deep Q-Network)中,预测用户对物品的反馈。在MovieLens数据集上的实验结果表明,该文提出的推荐方法比其他基线方法在归一化折损累计增益(NDCG)与命中率(Hit Ratio)上有显著提升。 展开更多
关键词 推荐系统 深度强化学习 长期与短期兴趣 协同过滤 门控循环单元
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部