论文笔记:HOW ATTENTIVE ARE GRAPH ATTENTION NETWORKS?
PDF: https://openreview.net/pdf?id=F72ximsx7C1
OpenReview:https://openreview.net/forum?id=F72ximsx7C1
ICLR 2022
1. Abstract
认为GAT是static attention,仅实现了对节点重要度的静态ranking,而未实现对不同query给出不同key的设想;提出GATv2,通过调整LeakyReLU和linear unit计算顺序,实现dynamic attention,即对不同query能给出不同key。