因果推断推荐系统工具箱 - attribute based propensity score(一)

文章名称

Attribute-based Propensity for Unbiased Learning in Recommender Systems: Algorithm and Case Studies

核心要点

文章旨在解决工业中实际遇到的各种场景带来的bias。作者推导出在IPS场景下,无偏的DCG评估准则。利用EM算法(和一些加速计算的方法)学习IPS的权重,并最终得到相关性模型。

方法细节

问题引入

由于用户隐式反馈存在各种偏差(如流行度偏差),直接利用观测数据学习模型会对性能有损失。原有方法利用IPS等方法进行纠偏,然而这些方法只能应用于位置偏差这种单独UI场景的propensity score(偏差仅仅由位置引起,而实际上包含多种layout,不仅仅是瀑布流)。现实中的推荐系统存在两个特点,1)同一个网站在不同的设备上可能有不同的layout,比如瀑布流或者是网格;2)用户通过诸如搜索,快捷工具栏等渠道(甚至是短视频场景的up主页面交互等),也可以与物品进行交互(可能代表了某种正反馈),这些反馈都发生在推荐流之外,但确非常有用,能够帮助我们进行数据偏差的纠正。为了充分利用上述特点,作者把(瀑布流中的)位置,不同的终端以及反馈的渠道都当做属性来学习倾向性得分,进行数据纠偏。

具体做法

文章中定义propensity score表示P(O_i = 1),即物品有没有被曝光给用户。r_i表示物品是否被用户喜欢(或者吸引用户)。[n]表示top-n列表里的物品。DCG = \sum_{i \in [n]} \frac{r_i}{i}是常用的评估模型排序性能的评价指标,可以被理解为位置折扣下的top-n相关性求和(注意,这里的相关性不是点击)。由于observation bias(个人理解就是exposure bias),我们不能观测到所有top-n的反馈,需要用如下图所示的IPS的方法进行矫正,该方法可以证明是无偏的。

Unbiased DCG with IPS

众所周知,估计propensity score是IPS方法的核心所在,文章的重点是利用attributes来估计propensity score。定义C, E, R分别表示用户点击与否的随机变量,用户是否审视(可以理解为是否被曝光)某个物品的随机变量以及用户-物品元组的相关性(用户是否喜欢)某个物品的随机变量。[a]表示某些attributes(其实就是偏差特征,或者说推荐系统的特征,例如position)。我们假设用户是否审视某个物品,只与attributes有关系(比如position和layout)。而用户是否喜欢该物品,只与用户的偏好有关。与之前讲述的许多纠偏推荐模型一样,可以得到如下图所示的概率关系,并进一步简化为参数\theta_{[a]}, \gamma_{u, i}

formulation

利用上述模型,我们可以利用EM方法来最大化如下图所示的似然函数(其中L表示日志中的数据),进而从日志数据中学习模型的参数\theta_{[a]}, \gamma_{u, i}

likelihood

在E-step中,我们利用\theta_{[a]}, \gamma_{u, i}计算如下图所示的概率(注意除了这些式子以外,其他的概率都等于0)。在初次迭代时,随机初始化\theta_{[a]}, \gamma_{u, i}

E-step

在M-step中,我们利用E-step计算得到的概率,计算\theta_{[a]}, \gamma_{u, i},计算过程如下图所示的。

M-step

重复迭代上述步骤,即可学习得到propensity score以及用户-物品元组的relevance。然而,虽然\theta_{[a]}的学习可以直接利用上述过程求解(由于[a]的取值范围一般相对较小,可以利用编号进行对应,且数据量充足可以充分学习到不同编号下的效果),但\gamma_{u, i}的学习过程存在两点问题,1) 用户-物品元组的数据太稀疏了,不利于EM算法进行稳定的迭代学习;2) 由于数据收集的问题,用户-元组的数据未必能够在日志数据中得到(除了缺失以外,还有可能是处于数据保密的原因)。

因此作者采用模型的方式回归\gamma,也就是说从用户-物品元组特征x_{u,i}(可以是其他预测物品-用户偏好的模型学到的用户、物品向量表示)来回归\gamma。回归的标签,是从E-step得到的概率p(R=1|c, u, i, [a])中采样得到的,这样\gamma_{u,i}就变成了一个二分类问题(因为\gamma_{u,i}本身也是一个概率)。

值得注意的是,作者表明虽然EM方法可以得到关于用户-物品的relevance,但是最终还是需要利用propensity score来优化无偏的IPS损失(论文公式1)来学习得到的估计用户-物品的relevance的模型,而不是直接利用EM中的结果,理由是这样更为高效(可能是EM的优化不足以在有效数据上收敛到很好的relevance模型)。

心得体会

工业风

Google的paper都是个工业风气息比较重,简单直接有效,且场景贴近实际。作者在这篇文章中提到,可以直接利用原有模型的接口上线,并且通过构造的离线评估指标,可以评估模型的在线效果。

点击 vs 偏好

很多文章中明确的区分了点击和偏好两个概念,点击是用户的行为表征,并不代表一定是喜欢某一个物品。这个差别1)点击可能因为被曝光的素材吸引(骗点击),但实际用户并不会喜欢(不会转化);2)点击仅仅是因为这个物品比较流行,用户也不会转化。因此,个人认为点击和偏好还是应该分开建模的。

回归\gamma

个人感觉,这里回归\gamma可能会引入模型的不准确偏差。另外,用来学习回归模型的标签的采样比较重要,可能会引入其他的偏差。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,104评论 6 515
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,816评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,697评论 0 360
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,836评论 1 298
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,851评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,441评论 1 310
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,992评论 3 421
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,899评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,457评论 1 318
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,529评论 3 341
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,664评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,346评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,025评论 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,511评论 0 24
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,611评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,081评论 3 377
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,675评论 2 359

推荐阅读更多精彩内容