2022推荐领域前沿论文探读

一、跨域推荐

RecGURU--摘要

RecGURU

跨域推荐可以帮助缓解传统顺序推荐系统中的数据稀少问题。在这篇论文中,我们提出了RecGURU算法框架,以生成一个通用的用户表征(GUR),在顺序推荐中纳入用户信息,即使在两个领域中的共同用户最少或没有。我们提出了一个自注意力的自动编码器来推导潜在的用户代表,以及一个领域判别器,其目的是预测生成的潜在代表的起源领域。我们提出了一种新的对抗性学习方法来训练这两个模块,以便将从不同领域产生的用户嵌入统一到每个用户的全局GUR中。学习到的GUR捕捉到了用户的整体偏好和特征,因此可以用来增强行为数据并改善用户参与的任何单一领域中的推荐。在两个公共的跨领域推荐数据集以及从现实世界的应用中收集的大型数据集上进行了广泛的实验。结果表明,RecGURU提升了性能,并超过了各种最先进的顺序推荐和跨域推荐方法。所收集的数据将被公布,以促进未来的研究。

Personalized Transfer of User Preferences for Cross-domain Recommendation--摘要

Cross-domain

冷启动问题仍然是推荐系统中一个非常具有挑战性的问题。幸运的是,冷启动用户的互动

在辅助源域的互动可以帮助目标域的冷启动推荐。如何将用户的偏好从

如何将用户的偏好从源域转移到目标域,是跨域推荐(CDR)的关键问题,它是一个有希望解决

处理冷启动问题的关键问题。大多数现有的方法都是以

一个共同的偏好桥来转移所有用户的偏好。

直观地说,由于每个用户的偏好不同,不同用户的偏好桥应该是不同的。沿着这个思路。

我们提出了一个新的框架,名为跨域推荐的个性化用户偏好(PTUPCDR)。

具体来说,通过学习用户特征嵌入的元网络来生成个性化的桥梁函数,以实现每个用户的个性化偏好转移。

为了稳定地学习元网络,我们采用了一个面向任务的优化程序。

通过元生成的个性化桥梁函数,用户的偏好嵌入可以被转换到目标域中。

到目标域中,而转换后的用户偏好嵌入可以作为冷启动用户的初始嵌入

我们使用大型的真实世界数据集,进行广泛的实验来评估PTUPCDR在冷启动和暖启动阶段的有效性。

代码:https://github.com/easezyc/WSDM2022-PTUPCDR

二、序列推荐

Contrastive Learning for Representation Degeneration Problem in Sequential Recommendation-摘要

最近,诸如Transformer和BERT等顺序深度学习模型的进步大大促进了顺序推荐。然而,根据我们的研究,这些模型生成的项目嵌入的分布趋向于退化为各向异性的形状,这可能导致嵌入之间的高语义相似性。本文首先对这一表征退化问题进行了经验和理论研究,并在此基础上提出了一种新型的推荐模型DuoRec,以改善项目嵌入分布。具体来说,根据对比学习的均匀性特性,为DuoRec设计了一个对比正则化,以重塑序列表示的分布。鉴于推荐任务是通过点积测量序列表征与同一空间的项目嵌入之间的相似性来完成的,正则化可以隐含地应用于项目嵌入分布。现有的对比学习方法主要依赖于通过项目裁剪、遮蔽或重新排序对用户-项目交互序列进行数据层面的增强,很难提供语义上一致的增强样本。在DuoRec中,我们提出了一种基于Dropout的模型级增强方法,以实现更好的语义保存。此外,还开发了一种新的抽样策略,即选择具有相同目标项的序列作为硬正样本。在五个数据集上进行的广泛实验表明,与基线方法相比,拟议的DuoRec模型性能更优。学习到的表征的可视化结果验证了DuoRec能够在很大程度上缓解表征退化的问题。


04.Heterogeneous Global Graph Neural Networks for Personalized Session-based Recommendation-摘要

HG-GNN

预测一个短期互动会话的下一次互动是基于会话的推荐中的一项挑战性任务。几乎所有的现有的工作都依赖于项目转换模式,而忽略了用户历史会话,同时对用户的偏好进行建模,这往往会导致了非个性化的推荐。而现有的基于会话的个性化推荐器只限于当前用户的会话,而忽略了有用的其他用户历史会话中有用的项目转换模式。

为了解决这些问题,我们提出

一种新型的异质全局图神经网络(HG-GNNN)。

以一种微妙的方式利用所有会话中的项目转换

从当前和历史会话中更好地推断出用户的偏好。

为了有效地利用所有会话中的项目转换我们的全局图包含会话的项目转换。

我们的全局图包含了会话的项目转换、用户与项目之间的互动以及全局共现项目。此外,为了为了全面捕捉用户的偏好,我们提出了

一个图增强的偏好编码器来学习会话表示。具体来说,我们设计了一个新的异质图神经网络(HGNN)。

网络(HGNN)来学习长期的用户偏好和具有丰富语义的项目表示。

在HGNN的基础上,我们提出了个性化的会话编码器来结合一般的用户偏好和当前会话的时间兴趣来生成个性化的会话编码器。

我们提出了个性化会话编码器,将用户的一般偏好和当前会话的时间兴趣结合起来,生成用于推荐的个性化会话表示。在三个真实世界的数据集上的大量实验结果表明,我们的模型优于其他先进的方法。

代码:https://github.com/0215Arthur/HG-GNN

三、去偏推荐

It Is Different When Items Are Older: Debiasing Recommendations When Selection Bias and User Preferences are Dynamic

用户与推荐系统(RSs)的互动受到以下影响,例如,用户更有可能对受欢迎的项目进行评价 (流行偏向)或他们预期会喜欢的项目(积极性偏向)。有一些方法可以减轻选择偏差的影响。然而这些方法将选择偏差视为静态的,尽管事实上 尽管一个项目的受欢迎程度可能会随着时间的推移而急剧变化。

我们专注于物品的年龄及其对选择偏差和用户偏好的影响。我们的实验分析显示用户在MovieLens数据集上的评分行为被更好地捕捉到。考虑到项目年龄对偏见和偏好的影响。我们在理论上表明,在一个动态的场景中现有的去偏方法不再是无偏差的。为了解决这一局限性。我们引入了DadiAsing in the dyNamiC scEnaRio (DANCER),这是一种新的去偏方法。它扩展了反倾向性评分的去除方法,以考虑到动态选择偏差和用户偏好。我们的实验结果表明,DANCER改善了与那些不正确地假定选择偏差的除错方法相比,DANCER提高了评级预测的性能。在动态情况下,错误地假设选择偏差是静态的。据我们所知,DANCER是第一个考虑到动态选择偏差和用户偏好的去偏移方法。

Fighting Mainstream Bias in Recommender Systems via Local Fine Tuning

bias

在协同过滤中,推荐的质量关键在于的质量主要取决于一个模型如何轻松地找到目标用户的类似用户。因此,一个喜欢非主流项目的小众用户可能会收到很差的推荐。而一个与许多人分享兴趣的主流用户则有可能收到质量更高的推荐更高的质量。

在这项工作中,我们围绕着三个关键点来研究这种主流偏见。首先,为了区分主流和利基用户,我们探索了四种基于离群点检测技术的方法,以确定表明每个用户的主流分数。第二,我们通过经验表明,传统的推荐模型会产生严重的主流偏见。最后,我们探索了全局和局部的方法来减轻偏差的方法。具体来说,我们提出了两个全局模型。分布式校准(DC)和加权损失(WL)方法;以及一种局部的方法。本地微调(LFT)方法。广泛的实验表明,所提出的方法对提高利基用户的效用是有效的。同时也表明所提出的LFT可以提高主流用户的效用。

四、联邦推荐

PipAttack: Poisoning Federated Recommender Systems for Manipulating Item Promotion

PipAttack

由于越来越多的隐私问题,去中心化在个性化服务中迅速出现。特别是推荐。另外,最近的研究表明,集中式模型很容易受到毒攻击,损害了它们的完整性。在推荐系统方面这种中毒攻击的一个典型目标是通过干扰训练数据集和/或过程来促进敌方的目标项目。因此,一个常见的做法是将推荐系统归入分散的联合学习范式下。这使得所有的用户设备能够协作地学习一个全局性的推荐器,同时在本地保留所有的敏感数据。在不暴露推荐器的全部知识的情况下和整个数据集的全部知识,这样的联合推荐被广泛认为是对中毒攻击的 "安全"。

在本文中我们提出了一种系统化的方法,为联合推荐系统提供后门,以实现有针对性的项目推广。其核心策略是利用数据驱动的推荐器中通常存在的固有的流行偏差。由于受欢迎的项目更有可能出现在推荐列表中,我们创新设计的攻击模型使目标项目具有嵌入空间中流行项目的特征。然后,通过上传精心制作的梯度,我们可以有效地增加曝光率,并在模型更新过程中通过少量的恶意用户更新,我们可以有效地提高目标项目的曝光率。(不受欢迎的)项目在结果的联合推荐器中的曝光率。在两个真实世界的数据集上进行的评估显示:

1)我们的攻击模型以隐蔽的方式显著提高了目标项目的曝光率。我们的攻击模型以一种隐蔽的方式大大提高了目标项目的曝光率,而不损害被下毒的推荐器的准确性。

2)现有的防御措施不够有效,突出了对我们的本地模型中毒攻击的新防御措施的需求。

五、基于图结构的推荐

Profiling the Design Space for Graph Neural Networks based Collaborative Filtering

近年来,图神经网络(GNNs)被广泛应用于协同过滤(CF),这是推荐系统中最常用的方法之一。然而,现有的大多数工作都是针对特定的场景设计单独的模型体系结构,而没有研究不同设计维度的影响。因此,在新的推荐场景中快速获得性能最好的模型仍然是一个具有挑战性的问题。为了解决这一问题,本文首次尝试对基于gnn的CF方法的设计空间进行了梳理,丰富了对不同设计维度的理解,为模型设计提供了一种新的范式。具体而言,提出了一个统一的基于gnn的CF框架,并在此基础上开发了一个设计空间,并通过大量实验进行了评估。不同设计维度对推荐性能的影响得到了有趣的发现。在实证研究结果的指导下,我们进一步修剪设计空间,以获得一个紧凑的空间,其中包含更高集中度的顶级模型。实证研究表明,该方法质量高,泛化能力强。

Modeling Scale-free Graphs with Hyperbolic Geometry for Knowledge-aware Recommendation


LKGR

为了缓解传统推荐系统的数据稀疏和冷启动问题,引入知识图(KGs)

辅助信息的补充近来得到了相当多的关注。通过将KG与用户物品交互统一为三部图,最近的作品探索图的拓扑结构来学习具有丰富语义的用户和条目的低维表示。这些真实世界的三部图通常是无标度的,

然而,其内在的层次图结构是现有作品强调不足,导致推荐效果次优。来解决这个问题

为了提供更准确的推荐,我们提出了一种基于双曲几何Lorentz模型的知识推荐方法,即Lorentzian Knowledge-enhanced Graph convolutional networks for recommendation (LKGR)。LKGR有利于对数据后的无标度三部图进行更好的建模

统一。我们在双曲空间中采用不同的信息传播策略,对历史交互和知识图谱中的异构信息进行显式编码,并引入知识感知的注意机制,使模型能够自动度量信息贡献,产生双曲空间中的相干信息聚合。在三个真实世界的基准上进行广泛的实验证明LKGR的性能优于最先进的方法Top-K推荐占Recall@20的3.6-15.3%。

LKGR-Algorithm

六、公平性推荐

Enumerating Fair Packages for Group Recommendations

Fair

package的推荐系统向一组人推荐一组统一的项目。与传统设置不同,群组推荐的效用不容易衡量,因为群组推荐涉及多个用户。特别是,公平在群体推荐中至关重要。即使组中的某些成员对某项推荐相当满意,但如果为了增加总效用而忽略其他成员,这也是不可取的。文献中提出了许多评价和应用群体推荐公平性的方法。但是,所有这些方法都将分数最大化,只输出一个package。这与传统的推荐系统相反,传统的推荐系统输出几个(例如,top-[Math Processing Error])候选者。这可能会产生问题,因为一些未被发现的原因可能会使一个群体对推荐的方案不满意,即使评分很高。为了解决这个问题,我们提出了一种有效枚举公平package的方法。我们的方法还支持过滤查询,例如top-[Math Processing Error]和交集,以便在列表很长时选择喜欢的package。我们确认我们的算法可以扩展到大型数据集,并且可以平衡package的几个方面的效用。

七、基于元学习的推荐

Long Short-Term Temporal Meta-learning in Online Recommendation

一个有效的在线推荐系统应该在用户内部行为(来自目标推荐任务)和外部行为(来自其他任务)中共同捕捉用户的长期和短期偏好。然而,由于现实世界在实时训练效率和外部行为获取方面的限制,在大规模系统中充分利用所有历史行为的同时,对实时新趋势进行快速适应是极具挑战性的。为了解决这些实际的挑战,我们提出了一个新的长期短期时间元学习框架(LSTTM)在线推荐。它将用户的多源行为安排在一个全局的长期图和一个内部的短期图中,并通过不同的基于gat的聚合器和训练策略来分别学习用户的短期和长期偏好。为了及时捕捉用户的实时兴趣,我们提出了一种基于快速适应异步优化策略的时间元学习方法,该方法将不同时段的推荐视为不同的任务。在实验中,LSTTM在离线和在线评价上都取得了显著的改进。它被部署在一个被广泛使用的名为微信Top Stories的在线推荐系统中,影响了数百万用户。

八、基于强化学习的推荐

12.A Cooperative-Competitive Multi-Agent Framework for Auto-bidding in Online Advertising

Choosing the Best of All Worlds: Accurate, Diverse, and Novel Recommendations through Multi-Objective Reinforcement Learning

强化学习

自推荐系统(RS)诞生以来,推荐的准确性一直是评价RS算法质量的黄金标准。

然而,通过侧重于项目的相关性,人们在其他重要指标方面付出了很大的代价:用户被困在一个 "过滤泡 "中,他们的选择范围被大大缩小。因此降低了用户体验的质量,并导致用户流失。推荐,特别是基于会话/顺序的推荐。

是一项复杂的任务,有多种目标,而且往往是相互冲突的目标现有的最先进的方法无法解决这个问题。

在这项工作中,我们接受了上述挑战,并引入了用于RS的Scalarized Multi-Objective Reinforcement Learning(SMORL)

一个新的强化学习(RL)框架。能有效解决多目标推荐任务。

提议的SMORL代理增强了标准的推荐额外的RL层来增强标准的推荐模型,使其能够同时满足三个主要目标:

推荐的准确性、多样性和新颖性。

我们将这一框架与四种基于会话的推荐模型相结合,并将其与单一目标的RL模型进行比较。

与一个只关注准确性的单目标RL代理进行比较。我们的

我们在两个真实世界的数据集上的实验结果显示,总的多样性有了很大的提高。在准确性方面有适度的提高。

减少了推荐的重复性,并证明了加强多样性和新颖性作为补充性目标的重要性。

注:文章将不断深化和深挖,如有问题可以留言提出

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,904评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,581评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,527评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,463评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,546评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,572评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,582评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,330评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,776评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,087评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,257评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,923评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,571评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,192评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,436评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,145评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,127评论 2 352

推荐阅读更多精彩内容