admin 管理员组

文章数量: 1103785

博主在以往的文章中更新过图结构学习的相关概念,和北邮团队的几篇关于图结构学习的文章(主要KDD20,AAAI21,WWW21,AAAI21)。

  • Graph Structure Learning(图结构学习综述)
  • Graph Structure Learning(图结构学习应用)

近期WWW22放榜,于是博主也继续关注了下他们的新成果。


Compact Graph Structure Learning via Mutual Information Compression
这篇文章的动机在于:如何定义最优图结构?

作者认为:最优图结构应该仅包含关于下游任务中最精简的信息,不多不少,从而能对于标签做出最精确的预测。如果学到的结构吸收了很多和标签无关的信息,那它会易受到对抗攻击的影响;反之,如果它仅包含关于标签有限的信息,模型就无法支撑下游任务。总之,最优结构应该包含最小但却充分的关于标签的信息,我们称其为最小充分结构,它是有效性和鲁棒性的平衡。

需要解决两个挑战:

  • 如何确保最终视图的最小以及充分?为了达到充分,最终视图应该充分由标签指导,从而尽可能多地包含和标签有关的信息;为了达到最小,需要限制信息从基础视图向最终视图的流动。因此,为了达到最小与充分,需要思考基础视图、最终视图以及标签三者间的关系;
  • 如何确保基础视图的有效性?作为最终视图的信息源,基础视图需要保证较高质量。一方面,基础视图同样需要包含标签的信息,从而保证最终视图的表现效果;另一方面,不同视图间应相互独立,这样能消除彼此间的冗余,为最终视图提供多方面的关于标签的知识。

于是作者提出CoGSL模型,其主要通过互信息压缩来学习紧致的图结构。具体来说,模型架构如上图所示,分为2个部分,view estimator和adaptive fusion。视图估计器负责对对输入的视图进行结构调整,自适应融合以自适应无参聚合机制得到最终视图。

  • view estimator。这里调整视图的做法跟前面几篇文章还是挺类似的,也是先学特征, Z 1 = σ ( G C N ( V 1 , X ) ) Z^1=\sigma(GCN(V_1,X)) Z1=σ(GCN(V1,X))重新计算节点i和j之间的权重, w i j 1 = W 1 ⋅ [ z i 1 ∣ ∣ z j 1 ] + b 1 w_{ij}^1=W_1 \cdot [z_i^1||z_j^1]+b_1 wij1=W1[zi1zj

本文标签: 续篇 结构 Graph Structure learning