《NAIS:Neural Attentive Item Similarity Model for Recommendation》

在篇文章中,提出了一个神经网络模型Neural Attentive Item Similarity model(NAIS)基于项目的CF. 设计NAIS的关键是一个attention network,它能够区分用户配置文件中哪些历史项对预测更重要。 与最先进的基于项目的CF方法因子项相似性模型(FISM)相比,我们的NAIS具有更强的表示能力,只有少数附加参数由attention network带来。 两个公共基准的广泛实验证明了NAIS的有效性。 这项工作是第一次尝试设计基于CF神经网络模型,为神经推荐系统的未来发展开辟了新的研究可能性。

在本文中,大佬们提出了一个增强的项目相似性模型,通过区分受影响项目的不同重要性,有助于用户的偏好。NAIS模型建立在FISM之上,在线预测的高效率方面保留了与FISM相同的优点,同时通过了解交互项目的不同重要性,比FISM更具表现力。

1、模型背景准备

1.1  Standard Item-based CF

基于项目的CF的预测模型是:

其中R_u^+表示用户u已交互的项目集;r_{uj}是一个0或者1的值,代表用户u是否与j有互动;s_{ij}代表项目ij的相似性。

1.2   Learning-based Methods for Item-based CF

 SLIM (shortfor Sparse LInear Method)——通过它来学习项目的相似性优化推荐感知目标函数。

目标函数来最小化如下:

其中,U代表用户的数量;I代表项目的数量;S代表项目之间的相似矩阵;\beta \gamma 都是正则化参数。

SLIM是存在某些局限性的,因此提出了FISM:

其中,\alpha 是一种超参数,控制标准化效应,p_i,q_j表示embedding向量。

虽然FISM在基于项目的CF方法中提供了先进的性能,但作者们认为其表示能力可以通过在获得用户表示时对用户的所有历史项目的等同处理来限制。 但是这种假设对于真实世界的数据是违反直觉的,并且可能降低模型保真度。提出的NAIS模型通过区分历史项目与神经注意网络的重要性来解决FISM的这种局限性。

2. Neural Attentive Item Similarity model(NAIS) 模型介绍

2.1 初始模型设计

最初的关注点是模型的不同部分可以为最终预测做出不同的贡献(即参与)。 在基于项目的CF的场景中,我们可以通过为每个项目分配个性化的权重,直观地允许历史项目对用户的表示做出不同的贡献

其中a_{ij}是一种可训练的参数,表示在预测用户u对目标项目i的偏好时项目j的attention权重。这就存在一个问题,如果一个项目对(i,j)从未在训练数据中共同发生(即,没有用户与ij没有相互作用,则a_{ij}就无法计算出来,估计将是一个微不足道的数字。

为了解决以上问题,作者们考虑把a_{ij}p_i,q_j相关联起来。这种参数化的优点是即使一对(i,j)从未共同发生过,只要从数据中可靠地学习了p_i,q_j,它们仍然可以很好地估计a_{ij}

作者们考虑两种方式定义attention网络:

其中Wb分别是将输入投影到隐藏层的权重矩阵和偏向量,而h^T是将隐藏层投影到输出attention权重的向量。 将隐藏层的大小称为“attention factor”,其中较大的值为attention网络带来更强的表示能力。 使用Rectified Linear Unit(ReLU)作为隐藏层的激活函数。

把总体设计写成如下形式:

遗憾的是,作者们发现这种标准的解决方案在实践中并不能很好地发挥作用,后来意外地发现问题源于softmax功能。虽然使用softmax可以正确地标准化注意力。但是,这样的用户历史数据不再存在场景,自用户的历史长度(即历史数量)用户消费的项目可能有很大差异。定性说来,softmax函数执行L1归一化关注重量,可能会过度惩罚多数历史悠久的活跃用户。

2.2 最终NAIS模型

我们建议平滑softmax,以减轻对活跃用户的attention惩罚,同时减少attention权重的差异。 形式上,NAIS的预测模型如下:

其中,\beta 是平滑指数,设置在[0,1]范围内。当\beta 设置为1时,它恢复了softmax功能; 当\beta 小于1时,分母的值将被抑制,attention权重不会因为用户的活跃而受到过度惩罚。

损失函数:

其中N代表训练集数量。\sigma 将预测\hat{y} _{ui},就是用户u将与项目i交互的可能概率值。

此外,结构图如下所示。

2.3 NAIS的三个属性

\bullet 时间复杂度分析。评估NAIS预测的总时间复杂度可降为O(ak|R_u^+|),是FISM的一倍。

\bullet 实习个性化分析。对于实时个性化,需要实时监控用户行为,用户在对某个商品交互后,实施推荐系统同时更新用户的推荐列表。因为重新训练整个模型不现实,一般都选择更新模型参数,然而因为用户行为可能并行发生,更新模型的固有参数会发生冲突,虽然可以通过分布式结构来解决但是分布式往往需要更多的消耗。本文的算法在实时问题上有很好的解决方式,首先用户的特征可以直接通过加法更新,时间消耗基本是常数级的。

\bullet attention功能的选择。从公式中可以看出,本文设计了两种不同的注意力模型结构,一种是直接将p_iq_i直接连接在一起,组成不同shape的特征矩阵,另一种则是计算p_iq_i的点乘。前者保留了商品特征的原始结构,但是因为矩阵的结构发生变化可能导致网络难以收敛。后者的矩阵结构满足学习的目标,但是丢失了学习的商品特征。两种结构各有利弊,也是作者设计两种模型的原因。

3 EXPERIMENTS实验

3.1 实验设置

3.1.1 数据集与评估协议

\bullet 数据集如下

\bullet 评估协议:

我们采用leave-one-out(留一法)来做评估。将每个用户的最新交互作为测试数据,并使用剩下的交互进行培训。具体而言,每个测试实例与99个随机采样的负实例配对;然后,每个方法输出100个实例的预测分数(1个正加上99个负),以及每个测试实例性能由位置10的命中率(HR)和标准化的折扣累积增益(NDCG)来判断。其中HR@10可以被解释为一种基于召回的度量,它指示成功推荐的用户百分比。(也就是说,正实例出现在前10位),NDCG@10是一种基于精度的度量方法,它说明了正实例的预测位置,越大越好。

\bullet 对比的推荐系统方法有如下:Pop、Item KNN、FISM、MF-BPR、MF-eALS、MLP

\bullet 参数设置:

对于每种方法,我们首先在没有正则化的情况下对其进行训练;如果观察到过拟合(即训练损失不断减少,但性能变差),则调整正则化系数。\lambda [10^{−6},10^{−5},...1]范围内。文中报告了NAIS在以下默认设置下的性能:1)β=0.5,2)k=a=16,3)λ=0,4)Adagrad,学习速率为0.01,5)预训练使用FISM嵌入。

3.2 结果对比

上图显示了FISM的稳定性能和我们的两个NAIS方法在embedding大小为16的结果。当epoch大于2左右时,NAIS的HR和NDCG都远超过FISM。我们可以清楚地看到使用attention网络的有效性。

从上表可以看出,NAIS模型在两个数据集中的表现是最好的(embedding size=16)。下面我们来看看embedding size为其他的对比。

我们可以看到,性能趋势一般与embedding size=16的观察结果一致。我们的NAIS方法在大多数情况下都能达到最好的性能,唯一的例外是embedding size8,其中MLP的性能最好。这是因为当嵌入尺寸很小时,线性模型受到小embedding size的限制,而非线性模型则是有限的。ELS比线性模型更容易表现出更强的表示能力。

上图展现了无论attention因子的怎么设置,两种NAIS方法都优于FISM。在这两种方法中,NAIS-prod受attention因子的影响较小,而NAIS-concat受attention因子的影响较大。使用一个大型的a可以补偿两者之间的性能差距.这意味着使用表达模型来学习注意力权重是有用的。

上图是关于参数\beta 设置的对比图,可以很明显地看到,当\beta >0.8时,NAIS开始出现大幅度地性能下降,这就验证了当时增加这个平滑指数的必要性。

参考:

论文调研--NAIS -TKDE2018 - 简书

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,734评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,931评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,133评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,532评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,585评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,462评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,262评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,153评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,587评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,792评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,919评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,635评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,237评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,855评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,983评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,048评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,864评论 2 354

推荐阅读更多精彩内容