因果推断推荐系统工具箱 - CASR(三)

文章名称

【SIGIR-2021】【Beijing Key Laboratory of Big Data Management and Analysis Methods】Counterfactual Data-Augmented Sequential Recommendation

核心要点

文章旨在利用反事实数据生成的方法,解决Session-Based推荐场景下数据稀疏限制模型性能的问题。作者提出CASR框架,包含3种增广序列生成的sampler model,以及传统的序列推荐模型anchor model用于生成最终的推荐列表。Sampler model是整个框架的关键,其中一种是简单的随机替换模型,另外两种是面向数据和面向模型的序列生成模型。面向数据的模型会生成处在决策边界附近的反事实序列,而面向模型的方法则会以最大化提供给anchor model的信息为目标生成反事实序列。

前两节节介绍了,文章需要解决的额问题背景,方法框架,3种sampler model以及anchor model。本节总结一下方法的实现流程并给出与sampler model相关的误差分析。

方法细节

问题引入

上一节讲解了2种learning-based sampler model以及如何与anchor model进行结合。那么整体训练过程是什么样的呢?

此外,当前交互物品(也就是标签物品\hat{t}^{l+1})是通过优化如下图所示的公式得到的,sampler model \mathcal{ S}可能并没有达到比较好的效果,这样产生的反事实样本不可避免的存在噪声,会影响anchor model \mathcal{A}的训练。那么这个噪声会多大程度上影响模型效果呢?

current item decided by sampler model

具体做法

Traning Pipeline

首先,我们总结一下,如何训练sampler model和anchor model,

  • 观测数据阶段。在观测数据\mathcal{ T }上,同时预训练sampler model和anchor model。
  • 反事实采样阶段。首先,分别采用3种sampler model(或其中几种)生成反事实样本。在确定好需要生成的反事实样本数量\mathcal{ M }和需要替换的序列index d之后,利用不同的sampler寻找替换样本t^{\tilde{a}}以及当前交互样本\hat{t}^{l+1}。例如,
    • 简单的sampler,直接随机寻找替换样本,此时t^{\tilde{a}} = t^a,随后利用上述优化公式2,得到\hat{t}^{l+1}
    • 面向数据的sampler,优化如下图所示的公式,得到t^{\tilde{a}},再投影到t^a,随后利用上述优化公式2,得到\hat{t}^{l+1}值得注意的是,如前所述,需要确认\hat{t}^{l+1} \neq t^{l+1}
      Differentiable Data-oriented counterfactual sequence Loss
    • 面向模型的sampler,优化如下图所示的公式,得到t^{\tilde{a}},再投影到t^a,随后利用上述优化公式2,得到\hat{t}^{l+1}
      Differentiable Model-oriented counterfactual sequence Loss
  • 反事实训练阶段。得到反事实样本后,将其与观测样本结合训练anchor model \mathcal{A}作者表示,面向模型的训练方法隐含了对抗训练的思想在里边。因为,现寻找反事实样本让模型的损失增大,随后在训练模型让损失减小,是一个minmax game。

整个训练的pipeline伪代码参见代码部分。

Theoretical Analysis

如前所述,通过sampler model \mathcal{ S}生成的反事实样本中的当前交互物品\hat{t}^{l+1}可能存在噪声。作者利用PAC理论[1]分析了噪声的影响,回答”给定采样器模型的噪声水平,需要多少个样本才能获得足够好的性能?“。

定义g \in \{ 0, 1 \}表示\hat{t}^{l+1}是在反事实样本序列下,会真实出现的当前交互样本的标签。\mathcal{ S}正确估计g的概率为1 - \eta, \eta \in (0, 0.5)。那么,如果\eta = 0\mathcal{ S}可以生成完全合理的反事实样本,如果如果\eta = 0.5\mathcal{ S}类似随机采样。

作者可以得到如下图所示的结论,假设anchor model \mathcal{A}的预测误差是s,那么观测和预测之前不相符的原因可以分为两个部分,

  • 观测(生成的反事实是对的),预测错了,概率为s(1 - \eta);
  • 观测(生成的反事实是错的),预测对了,概率为\eta(1 - s);

因此,整体的不相符概率为\eta + s(1 - 2\eta),作者利用反正法进行证明。

Theorem1

证明的思路大致是,如果\mathcal{ A}的预测误差是s > \epsilon,那么两个条件必须同时满足,

  • \eta + s(1 - 2\eta) < \eta + \frac{\epsilon(1 - 2\eta)}{2}
  • 经验风险最小化得到的模型h^*的预测误差大于\eta + \frac{\epsilon(1 - 2\eta)}{2}

如果这两个条件不能同时满足,则Theorem1得证。

利用uniform convergence properties[1],得到如下引理论,

Lemma 2.1

有了Lemma2.1,我们再来看上述两个条件。

  • 条件一
    • 因为\mathcal{ A}的预测误差是s > \epsilon,所以期望损失R(\mathcal{ A}) > \eta + \epsilon(1-2\eta)
    • 又因为\hat{R}(\mathcal{ A}) < \eta + \frac{\epsilon(1 - 2\eta)}{2},所以|R(\mathcal{A}) - \hat{R}(\mathcal{A}) |应该小于\frac{\epsilon(1 - 2\eta)}{2}
    • 但根据Lemma2.1,如果m > \frac{2log(\frac{2|\mathcal{H}|}{\delta})}{\epsilon^2(1-2\eta)^2},所以\mathbb{P}(|R(\mathcal{A}) - \hat{R}(\mathcal{A})| > \frac{\epsilon(1 - 2\eta)}{2}) < \delta
  • 条件二
    • 如果模型h^*的期望损失R(h^*) = \eta且经验风险损失\hat{R}(h^*) > \eta + \frac{\epsilon(1 - 2\eta)}{2},那么|R(\mathcal{A}) - \hat{R}(\mathcal{A})|应该小于\frac{\epsilon(1 - 2\eta)}{2}
    • 同样根据Lemma2.1,如果m > \frac{2log(\frac{2|\mathcal{H}|}{\delta})}{\epsilon^2(1-2\eta)^2},所以\mathbb{P}(|R(\mathcal{A}) - \hat{R}(\mathcal{A})| > \frac{\epsilon(1 - 2\eta)}{2}) < \delta

因此,上述两个条件成立的概率都小于\delta。因此,\mathcal{ A}的预测误差小于\epsilon的概率大于1-\delta,Theorem1得证。

可以看出只要反事实样本量m > \frac{2log(\frac{2|\mathcal{ H}|}{\delta})}{\epsilon^2(1-2\eta)^2},可以保证模型\mathcal{ A}的预测误差是s在可接受范围内(也就是噪声\eta越大需要的反事实样本越大,才能掩盖住噪声...)。

从理论分析中看,random sampler model 需要接近无穷多的样本。同时,收到分析的启发,作者引入超参数\kappa,是的只有公式2优化的目标大于\kappa的反事实样本被生成出来(sampler model足够自信的反事实样本)。但是需要平衡反事实样本少带来的偏差和噪声带来的误差(详情参见论文)。

代码实现

文章算法pipeline的伪代码如下图所示。

Learning Algorithm of CASR

心得体会

Adversial Training

作者提到Model-oriented sampler model是类似对抗训练的思路。个人理解,这算是所有反事实样本生成训练的一个核心卖点,因为本身反事实样本是在做增广,对抗训练也在做增广。反事实是找和真实样本比较接近的对比样本,对抗则是专门供给模型的弱点(感觉,对比学习是利用数据或领域固有的特点进行对抗)。所以,是在用不同的方法榨取数据信息。

文章引用

[1] Shai Shalev-Shwartz and Shai Ben-David. 2014. Understanding machine learning: From theory to algorithms. Cambridge university press.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
禁止转载,如需转载请通过简信或评论联系作者。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,142评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,298评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,068评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,081评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,099评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,071评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,990评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,832评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,274评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,488评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,649评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,378评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,979评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,625评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,643评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,545评论 2 352

推荐阅读更多精彩内容