Denoising in Rec(1):Sampler Design for Implicit Feedback Data by Noisy-label Robust Learning

  • SIGIR2020


摘要

由于易收集且普遍适用,推荐研究中广泛使用隐性反馈数据。然而,预测用户对隐反馈数据(implicit feedback)的偏好是一项具有挑战性的任务,因为我们只能观察到交互过的样本和未交互的样本(unvoted samples)。很难从未交互的样本中区分负反馈样本以及未知正反馈样本。

现有的工作,如贝叶斯个性化排名(BPR),从未交互的样本中同一采样构成负样本,因此存在一个关键的标签噪声问题(noisy-label issue)。为了解决这一问题,本文设计了一种基于噪声标签鲁棒学习的自适应采样算法(an adaptive sampler based on noisy-label robust learning)。

为了解决这个问题,首先引入贝叶斯逐点优化(Bayesian Point-wise Optimization, BPO),通过最大似然估计学习一个模型,例如矩阵分解(MF)。我们使用该模型预测用户的偏好,并通过最大化观察到的数据标签的可能性来学习,即用户更喜欢她的正样本,而对她的未交互的样本没有兴趣。然而,在现实中,用户可能对一些未交互样本感兴趣,但这些未交互的样本有可能是用户尚未交互的正样本,被错误标记为阴性样本。在此基础上,考虑这些噪声标签的风险,本文提出Noisy-label Robust BPO(NBPO).

基于贝叶斯定理,NBPO还通过标签翻转(label flipping)的可能性来建立用户偏好和观察到的样本间的关联,同时最大化观测似然函数(observation likelihood)。在NBPO中,用户更喜欢她的真正样本,而对她的真负样本不感兴趣,因此优化质量显著提高。

Main Story

BPR是一种广泛应用于隐式反馈数据的优化准则,因为其卓越的性能。然而,有一个关键问题,在BPR中,所有未交互的样本都被同等地视为负。
事实上,用户没有交互的项目可能不是因为他/她不喜欢它,而是因为他/她还没有看到它。在现有的抽样策略中,这些正样本被错误地标记为负样本,这导致了严重的噪声标签问题。为了提高采样质量,本文提出研究推荐任务中的噪声标签鲁棒学习对于每个未观察到的用户-物品交互,将其标记为负样本,但估计被错误标记的可能性

观察的可能性被分解为真实标签的可能性和标签噪声的可能性。我们通过最大化观测的可能性来联合学习真实标签的可能性和标签噪声的可能性。通过这种方法,我们可以从被污染的观测标签中学习出真实的标签,并利用得到的真实标签进行预测。

Noisy-label Robust Learning

噪声标签问题是有监督机器学习任务中的一个关键问题。标签噪音会误导模型并降低性能。越来越多的研究文献旨在解决与从有噪类别列表的样本中学习有关的问题

Bootkrajang和Kaban提出了一种带噪标签鲁棒回归算法,该算法试图结合估计标签翻转概率来学习分类器。真实标签和观察标签的可能性通过翻转概率连接。最终最大化了观测的可能性来估计所有参数。阳性和未标记(Positive and unlabeled, PU)数据可以被认为是一种噪声标签数据,其中我们主要考虑正样本被错误标记为阴性的概率。

Ghasemi等人提出了一种针对PU数据的主动学习算法,该算法通过分别估计正点和未标记点的概率密度,然后计算信息量的期望值,从而去除超参数并获得更好的信息量度量。Plessis等人[33]提出了一种对成本敏感的分类,它利用非凸损失来防止目标函数中出现多余的惩罚项。Sheieh等人[23]提出了一种PU数据的矩阵补全方法,可用于推荐任务。

相关链接:

训练数据\mathcal{D}包含N个样本,\mathcal{D}=\{(x^{(1)},\tilde{y} ^{(1)}), ...,(x^{(N)},\tilde{y}^{(N)})\},其中\tilde{y}^{(N)}\in\{0,1\}是包含噪声的二元的观测标签。

考虑最经典的逻辑回归模型,最终 损失函数定义为:

考虑到噪声标签的存在,需要设计方法来减缓噪声的影响,引入新的变量y^{(n)}来表示第n个样本的真实标签,最终的观测指标概率分布如下所示:

其中p(\tilde{y}=k|y=j)即为标签翻转概率,表示真实标签到观测标签之间的概率。
基于以上公式,进行模型训练,通过最大化以上loss来学习分类参数和标签噪声概率:

在本文中,我们认为隐式反馈的未标记正样本可以被错误标记为阴性样本,从而探索推荐任务中的噪声标签鲁棒回归,以提高采样质量。在现有的带噪标签鲁棒学习方法中,对于某些j和k,所有样本共享相同的标签翻转概率p(\tilde{y}=k|y=j),而在本文中我们讨论标签噪声的概率因用户而异, 可以表示为不同样本的概率形式:

Method

1. Bayesian Point-wise Optimization

传统的BPR结构无法适用于noisy-label robust learning, 因为其pairwise的结构特性。 所以本文作者先提出Point-wise的方法来作为优化方法:定义二元交互矩阵来表示观测结果:\tilde{\mathbf{R}} \in \mathbb{R}^{M\times N}, 矩阵元素为1即表示用户与物品存在交互,反之为0.那么观察到的交互记录可以表示为\mathcal{R} = \{(u,i)|\tilde{\mathbf{R}}_{u,i}=1\}.

作者基于最大后验概率的思想来对模型进行求解:

那么似然函数可以表示为:

以上的交互概率预测使用MF形式,同时再定义模型参数的先验分布符合正太分布:

最终的目标函数为:

通过最大化以上的后验估计得到模型参数。

2. NOISY-LABEL ROBUST SAMPLER

在BPO方法的基础上,作者将noisy-label robust learning的方法加入优化中:

首先,根据上面的介绍,我们需要设置噪声标签概率,考虑到推荐上下文,具体的设置策略为:

  • p(\tilde{R}=1|R=0)=0 即实际为负样本,但用户给了正反馈/交互的情况,作者假设该情况的概率为0,即这种用户误触之类的噪声行为发生概率为0
  • p(\tilde{R}=0|R=0)=1 即实际为负样本,用户也没有交互的情况,作者假设该情况的概率为1
    p(\tilde{R}=0|R=1) 这就是假负样本的情况
    p(\tilde{R}=1|R=1) 即真正样本的情况
    p(\tilde{R}=0|R=1) + p(\tilde{R}=1|R=1) = 1

在推荐场景中,项目被忽略的概率p(R)=0 | R=1)对用户和物品敏感的,即p(R)=0 | R=1)随不同物品和不同用户而变化。例如,热门物品不太可能被错过,用户花更多的时间浏览物品,错过他们喜欢的项目的可能性就更小。
这还取决于用户习惯和物品的搭配。考虑到上述原因,文章提出学习了不同样本的不同噪声标记概率,即,我们在NBPO中使用M×N概率矩阵Γ∈ R M×N表示噪声标签概率:


那么最终可以将似然函数表示为:
后验函数可以表示为:
上式最大的特点在于多了噪声概率矩阵参数。

在noisy-label robust learning中常使用EM算法进行优化,但是对于大规模隐变量而言,EM比较低效;因此,文中提出使用SGD进行优化,根据实验结果之间进行SGD往往是次优的,作者根据EM的推导(EM也是通过不断求解下界的极大化 来逼近求解对数似然函数的极大值),构建目标函数的下限:

上式基于琴生不等式来选取ln函数的下界,在实际优化中通过优化上式进行求解。

NBPO 优化

  • 为了学习NBPO模型,我们仍然面临一个关键问题:当使用最大似然估计进行优化时,对数代理函数不适合噪声标签鲁棒推荐的情况
    可以看到两个部分的变量是分开的,即求解过程是独立的,可以考虑移除ln函数,重新改造loss:
    在移除In函数后,sigmoid函数可能会出现梯度消失的问题
    文中提出对于sigmoid函数项,在求导时使用Ln(sigmoid(x))进行替代,可以理解为是一种特殊的梯度截断方法,最终梯度计算方式如下:

NBPO实例

  • 以MF为例,NBPO的具体模型可以如下所示
  • 其中对于噪声概率矩阵同样使用低秩矩阵分解的形式来获取


  • 实际训练的时候同样采取负采样策略,选取负样本,但采用point-wise的方式进行训练

实验

  • 在两个数据集上与经典的MF方法进行了对比
  • 其中的SOTA是ICML15提出的ShiftMC, 也是基于noisy-label的思路


总结

  • 本文针对隐式数据上的推荐任务,提出了一套新的优化方法,主要基于noisy-label roubst learning的方法来改造现有的BPR框架,已实现对未交互样本的有效利用。
  • 在论文写作和具体的公式推导细节上,本文有较多可借鉴之处。
  • 对于此方向,需要进一步了解noisy-label robust learning研究领域的其他实现策略,来进一步提出更fancy的优化方法
  • 此外,对于该方法是否可以推广应用于更细分的推荐任务,需要深入思考。

END

本人简书所有文章均为原创,欢迎转载,请注明文章出处 。百度和各类采集站皆不可信,搜索请谨慎鉴别。技术类文章一般都有时效性,本人习惯不定期对自己的博文进行修正和更新,因此请访问本人简书主页查看最新信息https://www.jianshu.com/u/40d14973d97c

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,000评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,745评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,561评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,782评论 1 298
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,798评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,394评论 1 310
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,952评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,852评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,409评论 1 318
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,483评论 3 341
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,615评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,303评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,979评论 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,470评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,571评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,041评论 3 377
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,630评论 2 359

推荐阅读更多精彩内容