揭秘图神经网络的全局交互模式:迈向可解释的图分类技术

Unveiling Global Interactive Patterns across Graphs: Towards Interpretable Graph Neural Networks

摘要

本文探讨了图神经网络(GNNs)在图挖掘中的应用,特别是在图级任务中对长程依赖和全局交互的需求。传统的解释方法主要集中在节点级别的局部结构上,而本文提出了一种新的全局交互模式(GIP)学习方案,用于图分类任务,旨在通过学习可解释的全局交互模式来明确解释决策过程。该方法首先通过约束图聚类模块对大量节点进行聚类,然后通过匹配粗化的全局交互实例与一批自解释的图原型,从而促进透明的图级推理过程。实验结果表明,所提出的GIP方法在解释性和性能方面均优于现有最先进的方法。

原理

本文提出的全局交互模式(GIP)学习方案的核心在于通过两个关键模块实现图分类的可解释性:聚类分配模块和交互模式匹配模块。首先,聚类分配模块通过迭代聚合具有相似特征或紧密连接的组件,形成集群级别的表示,并基于局部结构之间的交互提取全局结构信息,从而实现全局交互的建模。接着,交互模式匹配模块定义了可学习的全局交互模式,这些模式以图结构的形式直接揭示图级别的关键模式,并通过图核计算相似度,推动交互模式的学习和匹配。最终,通过相似度得分,使用带有softmax的全连接层计算每个类别的输出概率。

流程

  1. 输入图:接收输入图数据。
  2. 聚类分配模块:对图中的节点进行聚类,形成集群级别的表示。
  3. 交互模式匹配模块:将粗化的图与预定义的交互模式进行匹配,计算相似度。
  4. 相似度基于的预测:利用相似度得分通过全连接层和softmax函数进行分类预测。
  5. 输出预测结果:输出每个类别的概率分布。

应用

所提出的GIP学习方案适用于需要图级解释的广泛应用场景,如生物信息学中的蛋白质结构分析、社交网络分析、电力系统网络分析等。该方法不仅提高了模型的解释性,还保持了与现有最先进方法相竞争的性能,预示着在安全和关键领域应用中的广阔前景。