【AE based RS】Variational Autoencoders for Collaborative Filtering

论文信息

背景

协同过滤通过发现和利用用户和项目之间的相似性模式来预测用户喜欢的项目。由于其简单性和有效性,潜在因子模型在很大程度上仍主导着协同研究。 然而,这些模型本质上是线性的,这限制了它们的建模能力。之前的工作已经证明,在线性潜在因子模型中添加精心设计的非线性特征可以显着提高推荐性能。 最近,越来越多的工作涉及将神经网络应用于协同过滤设置并获得有希望的结果。

主要工作

  1. 将变分自动编码器(vaes)扩展到协同过滤以进行隐式反馈。这种非线性概率模型能够超越线性因子模型的有限建模能力。Vaes推广了线性潜在因子模型,能够在大规模推荐数据集上使用非线性概率潜变量模型。

  2. 引入了具有多项式似然(multinomial likelihood)的生成模型,并使用贝叶斯推断进行参数估计。

    尽管在语言建模和经济学中广泛使用,但多项式似然在推荐系统文献中受到较少关注。

    latent-factor collaborative fltering 中常用的两种似然函数:

    • gaussian likelihoods
    • logistic likelihoods

    原因:

    • 多项式似然非常适合于隐式反馈数据的建模,并且更接近 rank loss;
    • 无论数据的稀缺性如何,采用principled Bayesian方法都更加稳健。
  3. 为目标函数引入了一个不同的正则化参数,并使用退火调整参数

  4. 得到的模型和学习算法具有与最大熵判别和信息瓶颈原理的信息理论联系。根据经验,我们证明所提出的方法在几个真实世界的数据集上显着优于几个最先进的基线,包括最近提出的两个神经网络方法(CADE,NCF)。我们还提供了扩展实验,将多项式可能性与其他常用似然函数进行了比较,并显示了有利的结果。最后,我们确定采用原则贝叶斯推理方法的优缺点,并描述其提供最显着改进的设置。

VAE

Variational inference:变分推断近似于真实的难以处理的后验,具有更简单的变分分布q(zu)。

标准形式的自编码器的目标单纯是重构输入。从隐空间随机抽取V输入到解码器,V可能与解码器之前见过的任何一个输入都不相似,不一定能产生一张合理的图片。因此解码器可能从未被训练过在当输入为V时如何来产生合理的图片。因此,需要一种保障机制,让解码器能够对任何输入产生一个合理的输出。


传统AE

因此,VAE目标:对任何输入产生一个合理的输出。

传统的AE:编码器对一个输入样本返回隐空间的一个点,该点作为解码器的输入。

VAE:

  • VAE中,编码器的输出是隐空间的概率分布,是与隐空间同纬度的高斯分布,编码器产生这些高斯分布的参数。(从该隐空间抽取点,就能解码成我们想要的假样本。)
  • 从概率分布中抽取点作为解码器输入,并对从该分布中抽取的任意点生成合理的输出。

N(μ, Σ) = μ + ΣN(0, Ⅰ)

协方差矩阵Σ为对角矩阵。

实际中,隐空间概率分布不一定是标准正态分布。对于不同训练样本,编码器产生各种不同分布,平均起来可近似为一个标准正态分布。(可以用KL散度来衡量编码器产生的概率分布与标准正态分布的近似程度。)

K-L散度

K-L散度是一种量化两种概率分布P和Q之间差异的方式,又叫相对熵。在概率学和统计学上,经常使用一种`更简单的、近似的分布来替代观察数据或太复杂的分布。K-L散度能帮助我们度量使用一个分布来近似另一个分布时所损失的信息。

在Variational Inference中,我们希望能够找到一个相对简单好算的概率分布q,使它尽可能地近似我们待分析的后验概率p(z|x),其中z是隐变量,x是显变量。

VAE用在RS中需要进行两项调整:

  • 用multinomial likelihood(比更常用的高斯和逻辑似然效果好)

  • 调整了VAE目标函数

Model

Notations: We use to index users and to index items. "In this work, we consider learning with implicit feedback. The user-by-item interaction matrix is the click matrix . The lower case is a bag-of-words vector with the number of clicks for each item from user u. We binarize the click matrix. It is straightforward to extend it to general count data.

Generative process: For each user , the model starts by sampling a -dimensional latent representation from a standard Gaussian prior. The latent representation is transformed via a non-linear function to produce a probability distribution over items from which the click history is assumed to have been drawn:

VAE

在算法1中,我们对用户进行子采样并获取其整个点击历史记录(点击矩阵的完整行)以更新模型参数。 这消除了通常在(用户,项目)条目子采样方案中使用的负采样(以及因此用于挑选负例子的数量的超参数调整)的必要性。

Objective func

Multi-VAE

The objective of Multi-VAE^{PR} (evidence lower-bound, or ELBO) for a single user ​ is:

where ​ is the approximating variational distribution (inference model). ​ is the additional annealing parameter that we control. The objective of the entire dataset is the average over all the users.

Multi-DAE

The objective for Multi-DAE for a single user is:

where ​ is the non-linear "encoder" function.

Metric

NDCG(归一化折损累积增益)

是用来衡量排序质量的指标。同样的算法还包括MAP,MRR等。

一个推荐系统返回一些项并形成一个列表,我们想要计算这个列表有多好。每一项都有一个相关的评分值,通常这些评分值是一个非负数。这就是gain(增益)此外,对于这些没有用户反馈的项,我们通常设置其增益为0。

现在,我们把这些分数相加,也就是Cumulative Gain(累积增益)。我们更愿意看那些位于列表前面的最相关的项,因此,在把这些分数相加之前,我们将每项除以一个递增的数(通常是该项位置的对数值),也就是折损值,并得到DCG。

在用户与用户之间,DCGs没有直接的可比性,所以我们要对它们进行归一化处理。最糟糕的情况是,当使用非负相关评分时DCG为0。为了得到最好的,我们把测试集中所有的条目置放在理想的次序下,采取的是前K项并计算它们的DCG。然后将原DCG除以理想状态下的DCG并得到NDCG@K,它是一个0到1之间的数。

Recall

Recall @ R认为在推荐列表(R个item)中排名的所有项目同样重要,但NDCG @ R使用单调增加的折扣来强调较高级别比较低级别重要。

实验

Datasets
与基线模型对比
不同似然函数对比

改进点

  1. 加入辅助信息
  2. 待补充。。。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,142评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,298评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,068评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,081评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,099评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,071评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,990评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,832评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,274评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,488评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,649评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,378评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,979评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,625评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,643评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,545评论 2 352

推荐阅读更多精彩内容

  • 文章主要分为:一、深度学习概念;二、国内外研究现状;三、深度学习模型结构;四、深度学习训练算法;五、深度学习的优点...
    艾剪疏阅读 21,826评论 0 58
  • 一直以来我都是个相信缘分的人,遇见的人遇到的事都我觉得皆是因为缘分。如同这次参加写作班的活动,虽然我是一个参与写作...
    我是问夏阅读 184评论 0 1
  • ·记录本周作业和红包收缴情况·优秀作业的推选·本周存在的问题·反思本周的得失 A.本周作业和红包收缴情况 1.作业...
    俞燕文阅读 288评论 0 1
  • 6月30日读书笔记 读书内容:《地下室手记》(陀思妥耶夫斯基著) 先吐个槽:4月18日买的书,6月28日才送到,这...
    考拉浅浅笑阅读 630评论 0 0