推荐系统遇上深度学习(一三一)-[蚂蚁金服]信息流推荐中局部视野感知的重排序方法

今天来分享一篇蚂蚁金服在WSDM2022中稿的重排序的文章,建模用户在浏览过程中自上而下的全局item相互影响以及局部视野范围内item的相互影响,一起来学习一下。

1、背景

信息流场景下,用户的行为会受到相邻展示的item的影响,如价格敏感的用户会对比相邻展示的item的价格,选择价格相对较低的item进行购买。而在精排阶段,出于耗时上的考虑,大都采用point-wise的建模方式,无法建模相邻item的相互影响,因此在精排之后,大都引入重排序(re-ranking)模块,来对这种item的相互影响进行建模,决策更好的item的展示顺序。

咱们先来简单回顾一下重排的一些做法(此处为个人总结,非论文中的内容,不妥当的地方可指出,相互交流),主要分为两类:直接生成最优序列和序列生成+序列评估两阶段。

1)直接生成最优序列如阿里的PRM,基于精排结果,使用transformer建模item之间的相互影响, 输出新的item打分,这种方法存在明显的缺陷,即evaluation-before-reranking问题,经过重排序后得到的顺序与最初的顺序是不同的,如果按照重排序的顺序输入到模型中,得到的预测结果可能不同。另一种直接生成最优序列的方法的方法如引入PG(policy gradient)模型,这类方法需要在训练过程中对生成序列进行合适的打分,通常需要引入预训练好的序列评估模型,因此在训练过程中往往也是两阶段的,但在线上预测的时候可以直接生成最优序列。
2)当前重排最常用的是序列生成+序列评估两阶段范式,序列生成方法可以采用启发式方法,也可以采用模型生成的方法如阿里的PRS,使用Beam-Search的方法生成多个候选序列。序列评估方法可以引入RNN,Transformer等建模相邻item的相互影响,做到更准确的序列评估。

本文感觉是阿里之前提出的PRM论文的延续,仍然存在evaluation-before-reranking的问题,但本身的创新点还是值得借鉴的。在信息流的浏览过程中,用户的浏览行为存在以下两种特性:

1)单向性(Unidirectivity):用户在信息流的浏览过程中大都是从上往下浏览,很少来回进行物品的对比。信息流中下文展示的item对上文展示的item的影响是十分有限的,但上文展示的item对下文展示的item却有非常大的影响,论文称具有锚定效应(anchoring effect ),即第一印象或第一信息更容易支配人们的判断。因此建模下文对上文的影响对于整体的模型效果可能是有损的。

2)局部性(Locality):当用户停下来观察某一个具体的item时,他们倾向于将其与局部视野下相邻展示的其他item进行对比。大多数用户行为,例如点击或购买,主要发生在一个狭窄的可视窗口中,如下图所示。而目前大多数论文,忽略了局部视野信息的建模。

因此,为了显式建模用户在浏览过程中自上而下的全局item相互影响以及局部视野范围内item的相互影响,论文提出了一种新颖的re-ranking模型,称做 Scope- aware Re-ranking with Gated Attention model (以下简称SRGA),接下来,我们对SRGA模型进行具体的介绍。

2、SGRA模型介绍

SGRA模型如下图所示,整体分为四个部分:Input Layer,PI Layer,Gated Attention Layer和Output Layer,接下来对各层进行介绍:

2.1 Input Layer

输入层主要包含了两部分,用户特征以及精排阶段得到的item序列。用户特征用xU表示,item特征用xI表示。输入特征首先转换为对应的embedding,这里值得一提的是,item特征在转换为对应的embedding时,会加上其对应的position embedding,用于刻画位置信息:

2.2 Personalized Interaction Layer

PI层用于计算用户对于单个item的兴趣,具体计算如下:

2.3 Gated Attention Layer

Gated Attention Layer为本文的核心创新点所在,包含了三个模块:Global Scope Attention(GSA)、Local Scope Attention (LSA)和Gate Moudle。

经过PI层得到的向量表示,首先会计算item之间的相互影响权重,这里与Self-Attention的计算相同:

Global Scope Attention(GSA)

GSA主要用于建模全局item之间的相互影响, 如在背景中的介绍,用户在信息流中的浏览过程具有单向性,因此,对于上一步得到的attention权重,在softmax之前,首先将排在后面的item对于排在前面的item的attention权重转换为无穷小,计算公式如下:

Local Scope Attention (LSA)

LSA主要建模大小为m的(m为超参数)局部视野下item之间的相互影响,这种相互影响是双向的。以item i为例,只考虑前后m/2个item对其的影响,计算过程如下:

Gate Moudle

经过GSA和LSA模块,分别得到了全局影响和局部视野影响下的每个item的向量表示,接下来,通过Gate Moudle来刻画哪种影响会对用户行为产生更大的作用:

另外,Gate Moudle得到的向量表示ti会经过residual connection,layer normalization和position-wise feed-forward layer,来得到喂给最终输出层的item表示,计作oi

2.4 Output Layer

接下来,每个item的向量表示oi经过全连接层,得到点击率预估值,并使用logloss进行模型训练和参数更新:

3、实验结果及分析

论文提出的SGRA模型,在多个数据上都取得了相较于base模型正向的效果:

具体的实验分析以及消融实验,本文不再做具体介绍。

4、总结

尽管本文所提出的重排方法存在evaluation-before-reranking的问题,但是其对用户在信息浏览过程中全局注意力以及局部视野注意力的刻画,具有很好的借鉴意义。

本文的介绍就到这里,感兴趣的同学可以阅读原文~

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,137评论 6 511
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,824评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,465评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,131评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,140评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,895评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,535评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,435评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,952评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,081评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,210评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,896评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,552评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,089评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,198评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,531评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,209评论 2 357

推荐阅读更多精彩内容