如何理解 GNN 表达能力的粗浅小结
参考阅读:
1. 神经网络的表达能力
机器学习的任务,可以理解为存在一个从特征空间到目标空间的映射\(f^*\),希望能用模型 \(f_\theta\) 来近似\(f^*\) 。可将 \(f_\theta\) 能近似的映射范围理解为模型的表达能力。
先前研究已证明了定义任意定义在compact space上的连续函数都可被MLP近似。但其实,一方面并不能保证模型经训练所学的\(\hat{f}\) 是想近似的\(f^*\),另一方面过强的表达能力还可能导致overfitting。
因此,我们希望建立能够保持强大表达能力的NN,同时对其参数施加约束——归纳偏置反映着对问题的先验认知。
对于CNN/RNN,模型共享参数的机制隐含着translation invariance的假设,对模型的表达力进行限制,但已经能完成对应任务(limited but sufficient)。
对于GNN,则有如下图所示的permutation invariance限定。
2. GNN表达能力的不同视角
区分能力(separating power)/相似性度量:
经典工作为 How Powerful are Graph Neural Networks?,它使用的图同构检验graph isomorphism problem来衡量GNN表达能力。表达力强的GNN能学到分辨性强的graph embedding,让我们在隐空间中判定两个图是否同构。
进一步的,还可尝试探索GNN是否能处理更难的 图编辑距离graph edit distance problem。
逼近能力(approximation power):
基于函数逼近思路,关心神经网络能够表达的函数的范围有多大,工作举例有EXPRESSIVE POWER OF INVARIANT AND EQUIVARIANT GRAPH NEURAL NETWORKS。尝试证明GNN可以逼近的定义在图上的映射集合。
模式识别:
通过研究GNN是否能识别图中的特定结构,把模式识别能力视作GNN的表达能力,工作举例有Can graph neural networks count substructures?。
3. 提升表达力方式(WL-test视角)
Chapter5: The Expressive Power of Graph Neural Networks的5.4章给出了具体介绍,在此不赘述。
上述观察,主要都聚焦在graph-level研究GNN表达能力,而缺乏从node-level出发的表达能力讨论。
一说对于node-level任务,GNN已经是universal approximator,不必深入研究。(参考阅读2)
但另一方面,一直以来关于GNN架构的研究,除了提升其表达能力外,也在努力提升其拟合能力——使模型能从有限的训练数据中尽可能拟合ground truth映射函数\(f^*\)。
或许可理论层面分析node-level层面GNN的表达能力、泛化能力(待阅读How Neural Networks Extrapolate: From Feedforward to Graph Neural Networks. Keyulu Xu et al. ICLR 2021.、What Can Neural Networks Reason About? Keyulu X et al. ICLR2020);
也可能参考上述他人证明,指导设计 theortical proven node-level specific GNN。