来源:ScienceAI
作者:Mostafa Haghir Chehreghani
编辑:萝卜皮
图卷积网络(Graph Convolutional Networks,GCN)已成为使用图和网络进行学习的流行工具。我们应该反思一下成功故事背后的原因。
论文链接:https://www.nature.com/articles/s42256-022-00466-8
图提供了一种强大的方法来对许多现实世界应用程序中的数据进行建模,例如万维网、社交网络和通信网络。与此类系统相关的预测和分类任务可以通过图神经网络来解决。
在其中一个关键应用中,图神经网络学习一个函数,该函数将图的每个节点映射到低维向量空间中的向量。这种映射应该是保持相似性的:即图中具有相似特征和相似结构角色的两个节点应该映射到向量空间中的接近点。为每个节点生成的向量称为它的嵌入或表示。
这些嵌入可以输入到不同的机器学习算法中以执行各种任务。在 2017 年的一篇开创性论文中,Kipf 和 Welling 介绍了一种最有效的图神经网络类型,称为图卷积网络(GCN)。他们表明,图信号的卷积(由图的节点索引的特征)可以解释为给定节点附近节点的聚合特征。这为实现图形数据的卷积机制提供了一种有效且直接的方法。
论文链接:https://openreview.net/forum?id=SJU4ayYgl
由于该技术在链路预测和节点分类等任务上的高性能,对其应用和进一步改进进行了许多研究。例如,在 GraphSAGE 中,Hamilton 团队建议使用通用聚合函数,而不是加权平均函数,并讨论了该通用函数的一些可能的特殊化。
论文链接:https://openreview.net/forum?id=SJU4ayYgl
Velickovic 团队引入了图注意力网络 (GAT),其中不相等的可训练重要性权重被分配给节点的邻居。
论文链接:https://openreview.net/forum?id=rJXMpikCZ
Xu 团队提出了图同构网络(GIN),其中聚合是使用多层感知器 (MLP) 和缩放器完成的,该缩放器将节点的前一层嵌入与其邻居的前一层嵌入区分开来。
论文链接:https://openreview.net/forum?id=ryGs6iA5Km
在高层次上,大多数图神经网络共享以下通用方案(图 1):
首先,为每个节点建立一个邻域。然后,每个节点聚合来自其自身及其邻域的嵌入信息。
嵌入被迭代更新,并且在每次迭代(层)中,使用一个函数为节点 v 计算一个新嵌入,该函数将线性变换(可训练矩阵)和聚合(总和、平均值、最大值、最小值等)应用于 v 的第 k 层嵌入和第 k 层嵌入 v 附近的节点。
有时,激活函数也用于诱导非线性。不同的图神经网络算法主要在细节上有所不同,例如计算邻域的方式和完成聚合的方式。
图 1:图神经网络方案。
图神经网络的成功有几个原因,有些是众所周知的,有些则不是。
首先,强大的机器学习性能是图神经网络广泛适用的主要原因。Kipf 和 Welling 表明,他们的模型在分类准确性方面优于几种现有方法。该技术还显示出对无监督学习和链接预测等问题的高精度。图神经网络很快成功地用于通常不被视为图问题的任务,例如文本摘要和推荐系统。推荐任务中的数据、项目-用户关系以及摘要任务中的句子-句子关系之间的联系可以通过图神经网络正确捕获和建模。
其次,效率和可扩展性很重要。图神经网络不使用矩阵表示来表示图,就像在此数据上使用神经网络的一种天真的方法一样。相反,图神经网络只需要简单且通常有效的计算,例如节点局部邻域的聚合。这不仅提高了它们的效率,而且使它们高度可并行化。此外,可以应用一些标准且经过充分研究的技巧,例如节点采样和边缘去除,来提高图神经网络的效率。
此外,较少讨论的图神经网络的优点是它们的简单性和可解释性。许多高级机器学习技术的一个缺点是无法为它们生成的输出提供简单的解释或解释。这种“黑匣子”特性使这些技术不适合高风险应用,例如金融服务、医疗服务和司法系统。对于这些努力,最近出现了可解释人工智能(XAI)领域,其目标是开发性能可与最高效的现有模型相媲美的模型,其中的输出可以被人类理解和信任,并且功能是透明和可理解的。
图神经网络的可解释性可以与决策树的可解释性进行比较:两者都通过构建有根树来模拟学习过程(图 1b),并且由于在内部节点中进行的计算(图神经网络中的聚合和决策树中的分裂),它们并不十分透明。
尽管如此,人们普遍认为决策树比传统的神经网络更容易解释。因此,同样地,图神经网络比传统的神经网络更容易解释。此外,图神经网络的简化通常会提高效率和透明度。例如,Wu 的团队讨论了一个事实,即可以通过消除非线性和折叠连续层之间的权重矩阵来简化它,从而提高图神经网络的效率。
图神经网络在计算上是高效的,相对可解释的,并且在性能没有太大损失的情况下,可以简化以产生更透明的模型。然而,尽管最近有许多改进,但仍有几个问题需要用图神经网络方法解决。
首先,我们对图神经网络背后的理论的理解是有限的。例如,对于它们在将不同的嵌入分配给不同的节点时的理论表达能力知之甚少。作为进一步改进这些技术的方向,扩展我们对图神经网络的理论理解并利用这些知识开发更有效的模型可能会很有用。未来工作的另一个有趣方向是为推荐、文本摘要、假新闻检测和多智能体游戏抽象等任务设计优化的特定于应用程序的图神经网络。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”