KDD 2023:图神经网络的新前沿
在2021年和2022年,当某机构科学团队邀请知识发现与数据挖掘会议(KDD)的程序委员会成员讨论其领域现状时,对话始终围绕图神经网络展开。
图学习仍然是KDD 2023最热门的话题,但这并不意味着该领域停滞不前。图神经网络(GNNs)是一种机器学习模型,可生成图节点的嵌入或向量表示,捕获节点与其他节点关系的信息。它们可用于图相关任务,如预测边或标记节点,也可用于任意下游处理任务,充分利用图结构中编码的信息。
但在这个广义定义下,“图神经网络的含义可能非常不同”,某学者表示,“图神经网络是一个很广泛的术语”。
例如,传统GNN使用消息传递来生成嵌入。图中的每个节点都被嵌入,然后每个节点接收其相邻节点的嵌入(传递的消息),并将其整合到更新的嵌入中。通常,这个过程执行两到三次,因此每个节点的嵌入捕获了其一到三跳邻域的信息。
“如果进行消息传递,我只能从直接邻居那里收集信息”,某学者解释道,“我需要经过很多层来建模长距离依赖。对于某些特定应用,如软件分析或物理系统模拟,长距离依赖变得至关重要”。
“因此人们问如何改变这种架构。他们受到了Transformer的启发”——基于注意力的神经架构,是当今大型语言模型的基础——“因为Transformer可以被视为图神经网络的特例,在输入窗口中,每个标记都可以连接到其他每个标记”。
“如果每个节点都可以与图中的每个其他节点通信,你可以轻松解决这个长距离依赖问题。但会有两个限制。一个是效率。对于某些图,有数百万甚至数十亿个节点。你无法高效地与图中的所有其他节点通信”。
第二个问题,某学者解释说,过多的长距离连接会削弱图表示的意义。图之所以有用,是因为它们捕获了节点之间有意义的联系——这意味着省略了无意义的联系。如果图中的每个节点都与其他每个节点通信,有意义的连接就会被稀释。
为了解决这个问题,“人们尝试找到一种方法来模仿文本设置或图像设置中的位置编码”,某学者说。“在文本设置中,我们只是将位置转换为某种编码。后来,在计算机视觉领域,人们说,‘好吧,让我们也对图像块这样做’。例如,我们可以将每个图像分解为六乘六的块,这些块的相对位置可以转换为位置编码”。
“所以下一个问题是,在图设置中,我们如何获得那种自然的相对位置?有不同的方法可以做到这一点,比如随机游走——一个非常简单的方法。人们还尝试进行特征分解,利用特征向量来编码这些节点的相对位置。但特征分解非常耗时,所以又回到了效率问题”。
效率
事实上,某学者解释说,提高GNN的效率本身就是一个活跃的研究领域——从高级算法设计到芯片设计层面。
“在算法层面,你可能会尝试某种采样技术,只是试图减少操作次数”,她说。“或者可能设计一些更高效的算法来稀疏化图。例如,假设我们想进行某种相似性搜索,保留与每个目标节点最相似的节点。然后人们可以设计一些智能索引技术,使那部分非常快”。
“在推理阶段,我们可以进行知识蒸馏,将一个非常复杂的模型,比如图神经网络,蒸馏成一个非常简单的图神经网络——或者不一定是图神经网络,可能只是一个非常简单的结构,比如MLP[多层感知器]。然后我们可以更快地进行计算。量化也可以应用于推理阶段,使计算更快”。
“这是在算法层面。但现在人们更深入。有时,如果你想解决问题,你需要深入到系统层面。所以人们说,让我们看看如何设计这个分布式系统来加速训练,加速推理”。
“例如,在某些情况下,内存成为主要约束。在这种情况下,可能我们唯一能做的就是分配工作负载。然后自然的问题是如何协调或同步每个计算节点训练的模型参数。如果我们必须将数据分发到10台机器,你如何与那10台机器协调,确保你只有一个最终版本?”
“人们现在甚至更深入,在硬件方面进行加速。因此软件-硬件协同设计也越来越受欢迎。这要求人们真正了解许多不同的领域”。
“顺便说一下,在KDD,与许多其他机器学习会议相比,现实世界的问题始终是我们的首要关注点。在许多情况下,为了解决现实世界的问题,我们必须与不同背景的人交流,因为我们不能仅仅将其包装成我们在高中时解决的那种理想问题”。
应用
除了这些提高GNN多功能性和准确性的普遍努力之外,还有关于GNN技术具体应用的新研究。
“有一些关于如何在图设置中进行因果分析的工作,意味着对象实际上相互干扰”,某学者解释道。“这与传统设置非常不同:例如,药物研究中的患者是相互独立的”。
“还有一个新趋势是将深度表示学习与因果推理相结合。例如,我们如何将你尝试的治疗表示为连续向量,而不仅仅是二元治疗?我们能否使治疗在时间上连续——意味着它不仅仅是一种静态的一次性治疗?如果我在10天后进行治疗,结果与20天后进行治疗相比如何?时间非常重要;我们如何注入那个时间信息?”
“图也可以被认为是描述多智能体动态系统的良好数据结构——这些对象在动态网络设置中如何相互交互。然后,我们如何将生成思想融入图中?图生成对许多领域非常有用,例如制药行业”。
“然后有许多应用我们可以从大型语言模型(LLMs)中受益。例如,知识图谱推理。我们知道LLMs会产生幻觉,而在KGs上的推理非常严谨。这两者的良好结合是什么?”
“对于GNNs,总是有新东西。图只是一种非常有用的数据结构,可以模拟我们互联的世界”。