GC–HGNN: A global-context supported hypergraph neural network for enhancing session-based recomm...

GC-HGNN:一个全局上下文支持的超图神经网络,用于增强基于会话的推荐

发表于:Electronic Commerce Research and Applications(2022)

论文提出了GC-HGNN超图神经网络来提高SBR效果。该模型首先通过在所有会话序列中的条目之间传递信息来学习当前用户的偏好。在此基础上,GC-HGNN模型充分考虑项目的全局上下文信息和局部上下文信息,构建全局会话超图和局部会话图。全局上下文信息由超图卷积神经网络获取,图关注网络通过学习项间的成对关系来计算局部上下文信息。采用和池法将两种信息融合,利用融合后的信息完成预测。本文提出了一种全局上下文支持的超图增强图神经网络(GC-HGNN),该网络利用超图卷积神经网络(HGCN)和图注意网络(GAT)来捕捉复杂的高阶关系和项目之间的成对过渡关系,即:项目的全局和局部级别上下文信息的特征表示。

论文中指出当前存在的问题:

(1)

没有考虑其他session对当前session的影响,如图,假设当前session为session2,当前iphone11同时出现在了session1和session3,假设考虑全局session,session2的iphone11可能会转化为air pods或watch。

(2)会话序列被建模为一个简单的会话图,GNN只能捕获项目之间的成对传递关系,而不能获取复杂的高阶不成对关系。

文中给出的解决方法:作者提出了一种全局上下文支持的超图增强图神经网络GC-HGNN,它可以有效地学习全局和局部上下文信息,并通过融合这两个层次的信息获得更好的会话特征。

Preliminaries

相关定义

图的构建

文中定义了两个图模型,全局图和局部图,以表示当前序列中不同级别的项之间传递信息。全局图表示所有序列中项目-项目关系的复杂高阶信息,局部图表示当前序列中成对项目-项目关系的传递信息。

全局图:用一个无向超图来表示全局信息,其超边连接任意数量的顶点。G=(V,E,W)分别代表节点集,超边集和超边的权重。W可以定义为一个对角矩阵W\in R^{\vert \epsilon  \vert \times \vert \epsilon  \vert } (\epsilon \in E表示一个序列),超图可以表示为一个关联矩阵H\in R^{\vert \epsilon  \vert \times \vert \epsilon  \vert } ,其中每项定义为

根据超图的定义,我们可以计算两个对角矩阵:超边的度矩阵D=\sum\nolimits_{\epsilon \in E}w(\epsilon)h(\nu ,\varepsilon ),和所有顶点的度矩阵B=\sum\nolimits_{\nu  \in V}h(\nu ,\varepsilon )

在超图中,如果任何两条超边具有公共顶点,则它们是连接的。此外,超边中的所有顶点都是完全连接的,因此超图包含项目之间的高阶未配对关系,可用于全局级别的项目特征表示。

Asession序列,B全局超图,C局部图

局部图:描述给定会话中项目单击顺序的有向图。图中C部分的局部图中每个节点都有一个自连接,以便在建模中融合其自身信息。局部图中可能有四种类型的边r_{in}、r_{out}、r_{in-out}、r_{self},同时,所有节点都与隐式动态中间节点v^* 相连,使得模型能够通过少量层捕获丰富的节点信息。

模型

在GC–HGNN模型中,会话序列分别被建模为全局图和局部图。全局图或超图用于表示所有会话中项目之间的高阶未配对关系,局部图用于表示当前会话中项目之间的成对传递关系。图中显示了GC–HGNN模型的架构,该模型由四个模块组成:模块I为HGCN,用于捕获项目之间的复杂高阶信息,以学习项目的全局特征表示;模块II为GAT,通过捕获当前会话中相邻节点的信息来计算局部级特征表示;模块III是和池化操作,负责聚合从全局和局部图中获得的表示,并通过注意力网络计算最终会话表示;模块IV是最终预测层。

HGCN层

HGCN层用于获取所有会话中项目之间的高阶关系。定义如下:h_{\nu }^{l+1} = D^{-1} HWB^{-1}H^Th_{\nu }^l;   超图卷积可以看成是顶点-超边-顶点的传递。H^Th_{\nu }^l表示从顶点到超边的聚合信息。然后与H相乘以从相反方向进行聚合信息。最后,通过HGCN获得项目在每一层的嵌入。对于给定的项目vi,从第0层到第1层,每个级别都将获得vi的表示。对hlvi的结果执行以下平均操作将获得最终的全局级别表示:h_{vi}^g=\frac{1}{L+1}  \sum_{L=0}^L h_{vi}^l

GAT层

GAT网络用于计算不同邻居节点对当前节点的影响,影响程度由注意机制计算的权重表示,以学习项目的成对表示。给定一个节点v_{i} ,节点v_{j}对其的影响权重为:e_{ij} =LeakyReLU(a_{rij}^T(h_{vi} \odot h_{vj}));a*是权重向量。

通过权重矩阵来表示图中所有节点对vi的影响,对于节点vi,根据其与其他节点之间的连接类型,可以通过训练得到四个权重矩阵,分别为A_{in} ,A_{out} ,A_{in-out} ,A_{self} ,用softmax函数做归一化处理,使得不同节点之间的权重有可比性:a_{ij} = \frac{exp(LeakyReLU(a_{rij}^T(h_{vi} \odot h_{vj})))}{\sum_{vk\in V_{i} } LeakyReLU(a_{rik}^T(h_{vi} \odot h_{vj}))}

通过线性组合计算节点vi的特征表示:x_{vi}^l = \sum_{vi\in N_{vi}^s } a_{ij}h_{vj}

通过上述计算,可以将其他节点对当前节点的信息与当前节点自身的信息融合在一起,作为当前节点的特征表示。

信息聚合层

用和池化操作:h_{i}^*  = SumPooling(h_{vi}^s  ,  h_{vi}^l),h_{i}^*表示session中每个项的最终表示。最终得到session中的项目表示H=\left\{ h_{1}^*,h_{2}^*,...,h_{l}^*  \right\}

采用反向位置编码,用矩阵p=[p1,p2,…,pl]表示会话中的项目位置嵌入,对于给定会话中的项目vi,在将两个级别的项目信息h_{i}^* 和位置矩阵p串联后,执行非线性变换操作来计算vi的位置嵌入,表示为

||是串联操作

平均会话中涉及的项目信息:

基于位置嵌入信息x_{i}^* 和会话表示s*,用软注意机制来计算权重:

通过线性组合操作获得会话的最终表示:

S表示会话特征

预测层

GC-HGNN算法

实验及结果

使用数据集:(1)Diginetca(2)Tmall(3)Nowplaying

问题一:在真实数据集上,GC–HGNN是否优于最先进的SBR基线?

GC-HGNN的性能

问题2:基于超图建模的全局级上下文信息是否增强了最终推荐功能?模型中每个模块的性能如何?

为了证明每个模块对推荐结果的影响,在三个数据集上测试了GC–HGNN、GC–HGNN-G、GC–HGNN-L和GC–HGNN-P的三个变体,它们仅使用本地上下文信息(GC–HGNN-G)或全局上下文信息(GC–HGNN-L),或不考虑反向位置嵌入信息(GC–HGNN-P),并将其实验结果与完整的GC–HGNN模型进行了比较。

问题3:不同的超参数设置(例如节点丢失)如何影响GC–HGNN的准确性?

图中显示了GC–HGNN在三个数据集不同干旱率下的实验性能,这说明了模型在三个数据集上的性能在开始时随着droupout的增加而增加,但当droupout增长到一定值时,模型性能开始下降。换句话说,模型在曲线拐点处的性能最好。特别是在Tmall、Diginetica和Nowplaying数据集中,我们的GC–HGNN模型在droupout分别为0.7、0.5和0.9时表现最好。因此,我们在三个数据集上的实验中将droupout设置为相应的值。

例子:在推荐session3最有可能与之互动的下一本书时,我们的模型考虑了session1和session2的互动顺序对session3的影响,因此向session3推荐深度学习书籍。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,084评论 6 503
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,623评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,450评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,322评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,370评论 6 390
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,274评论 1 300
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,126评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,980评论 0 275
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,414评论 1 313
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,599评论 3 334
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,773评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,470评论 5 344
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,080评论 3 327
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,713评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,852评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,865评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,689评论 2 354

推荐阅读更多精彩内容