可解释推荐系统工具箱 - ranking GAM(二)

文章名称

【WSDM-2021】【Google】Interpretable Ranking with Generalized Additive Models

核心要点

文章旨在解决ranking场景下,现有可解释模型精度不够的问题,提出将天生具有可解释性的广义加法模型(GAM)作为引入ranking场景,作为可解释排序模型。作者研究了如何将GAM应用到item和list级别的排序模型上,并利用神经网络而不是样条回归或回归树作为GAM排序模型。在此基础上利用蒸馏的方法,可以将神经排序模型蒸馏到更简单的分段函数。

上一节介绍了作者研究的背景和目的,主要是在平衡模型的复杂度和可解释性能。形式化表述了问题,并回顾了GAM的形式。本节继续介绍ranking场景下的GAM。

方法细节

问题引入

如上一节所述,ranking模型的可解释性在一些领域十分重要,例如法律、政策。排序模型中特征的贡献应该是可检查和可理解的,以确保结果的透明性、公平性,并且如果出现问题时可以追查到具体原因。虽然GAM具有很好的可解释性,也因为比较简单,很少被应用到ranking场景。

为了平衡模型的复杂度和可解释性能,作者探索在ranking场景下,引入GAM。

具体做法

首先,回顾一下背景问题的形式化定义,

  • 数据集\mathcal{D} = \{ \boldsymbol{q}, \boldsymbol{X}, \boldsymbol{y} \}表示观测的数据集,整体观测数据集包括N个样本。其中,\boldsymbol{q} = (q_1, \ldots, q_m), \boldsymbol{X} = {x_i}_{i=1}^{l}, \boldsymbol{y} = {y_i}_{i=1}^{l}分别表示查询query的向量(或者推荐的用户上下文向量),物品集合的特征矩阵(矩阵中的每一个向量表示一个物品的特征向量)以及物品和query的相关度标签(可以是0或1,也可以是表示相关性的有序列表)。
  • 策略空间记作\Pi_l,而最优策略\pi^*可以依据估计的相关性得分得到。
  • 排序模型记作\varphi,最优策略可以通过在观测数据上训练模型来近似,\pi^* \approx \hat{\pi} = \varphi(\boldsymbol{q}, \boldsymbol{X})
  • 在文章的研究场景下,作者利用点估计函数F,可以得到查询与物品相关性的估计值\hat{y}_i = F(\boldsymbol{q}, \boldsymbol{x_i})。如前所述,利用点估计的值,对物品进行排序,可以得到排序列表。

Ranking GAM

如前所述,GAM通常应用于回顾场景,其公式可以近似表示为如下图所示(这里,去掉了link function)。事实上,这种表示形式,可以被看做是一种context-absent排序问题,即没有利用查询特征知道注意的是,查询特征并不是完全没有利用到,而是被融入了物品特征中,而不再额外表示其他查询特征了。例如,BM25,就是把查询语句和文档的重合的部分,融合在了物品特征中。

context-absent ranking

但是,通常会有一些查询特征是不能够融入到物品特征里的。因此,需要单独表述查询特征。一种直接的办法是,分别对查询特征独立建模函数。

context-present ranking

但是,这种方法存在2个问题,导致模型不能够很好的学习上下文(查询)信息,

  • 很多时候模型会建模y_i - y_{i\prime}导致,并且两个物品的查询是相同的。因此,查询特征会被互相抵消。
  • 很多时候,排序的评估指标只关心最终的结果列表\hat{\pi}中物品的顺序,这和查询特征子模型f_{n+k}(q_k)关系也不大。

因此,作者利用查询文内容来确定GAM的权重,其公式如下图上所示。其中f_j, w_{j,k}可以是任意的可学习函数(神经网络之类的)。这里w_{j,k}可以用来细致的分析模查询中的哪一个元素(term)和哪一个物品特征的交互对最终排序影响较大。

query context to weight

并且,**值得注意的是,上述公式可以被分解为查询整体权重和物品特征的形式(如下图所示)。

query context to weight with query as whole

其中,w_j(\boldsymbol{q}) = \sum_{k=1}^{m}w_{j,k}(q_k)。这样做的好处是可以判断不同查询下,哪些物品特征影响更大。例如,在搜索任务中,如果用户搜索酒店,距离等项目特征可能更重要,而如果用户搜索会议中心,则内容相关性可能更重要。

Neural Ranking GAM

Context-Absent

基于上述思路,作者提出一个具体的实现方法(模型实例),neural ranking GAM。首先看context-absent的场景,其整体框架如下图所示。遵循GAM的形式,作者为每一个单独的物品特征构建独立的神经网络,每个特征的独立神经网络可以有不同的结构。

framework of neural ranking GAM in context-absent setting

作者采用FFN的结构,其具体计算公式如下。其中,\sigma是Relu[39]。

formulation of neural GAM in context-absent setting

随后,把学到的隐向量表示再过一个FFN,得到该物品、该特征的sub-score。

sub-score

物品整体的排序得分,可以通过对所有特征的sub-score求和得到。

item score

在Context-Present场景下,需要利用查询上下文,来学习求和的权重,其整体模型结构如下图所示。

framework of neural ranking GAM in context-present setting

同物品特征得分一样,作者采用FFN计算每一个查询元素的隐向量表示,并最终利用一个softmax层得到该查询元素的权重。**值得注意的是,该查询权重\boldsymbol{\alpha_k} = (\alpha_k^{(j)})_{j=1}^{n}是一个向量,向量中的每一个元素表示查询的第𝑘元素和物品的第j个特征的权重。具体计算公式如下图所示。

sub term
sub weight

使用softmax层是为了防止派生的重要性权重,在某些项目特征上为负数或非常大的值,这类极端值将大大损害模型的可解释性。

本节介绍了作者提出的ranking GAM思想(或者说解决问题的框架)以及其具体实例Neural Ranking GAM。下一节继续介绍模型的训练以及蒸馏等操作。

心得体会

Attention

个人感觉,上述利用query的特征计算权重有点类似attention,但是没有引入item的部分,所以不能算attention,因为没有交互。其实,也可以利用query特征来和物品特征交互,不过,模型会变得复杂且不可解释,无法提升效率和可解释性。本质上,还是再利用一些简化假设的方法和先验知识来进行性能和可解释性的平衡。

文章引用

[6] ChristopherJ.C.Burges.2010.FromRankNettoLambdaRanktoLambdaMART:
An Overview. Technical Report Technical Report MSR-TR-2010-82. Microsoft
Research.

[19] Trevor Hastie and Robert Tibshirani. 1986. Generalized Additive Models. Statist.
Sci. 1, 3 (1986), 297–318.

[31] Yin Lou, Rich Caruana, and Johannes Gehrke. 2012. Intelligible models for
classification and regression. In KDD.

[39] VinodNairandGeoffreyEHinton.2010.Rectifiedlinearunitsimproverestricted boltzmann machines. In ICML.

[51] Cynthia Rudin. 2019. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. Nature Machine Intelligence 1, 5 (2019), 206.

[53] Sofia Serrano and Noah A Smith. 2019. Is Attention Interpretable?. In ACL.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,185评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,652评论 3 393
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,524评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,339评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,387评论 6 391
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,287评论 1 301
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,130评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,985评论 0 275
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,420评论 1 313
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,617评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,779评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,477评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,088评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,716评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,857评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,876评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,700评论 2 354

推荐阅读更多精彩内容