Background:

  1. 不一致性问题:同配性假设和很多真实情形不一致。
  2. 拓扑和属性的冲突:异常节点的属性同正常节点不同,为了躲避系统的检测,异常节点在结构上常常同正常节点相连。

Main Idea:

传统GNN在异常检测中表现不佳的原因在于拓扑结构和属性的冲突。因此,使用两个网络分别从拓扑和属性两个视角学习节点的表征,最后利用注意力机制来融合两者、使用互信息来约束两者,最终得到异配图节点表征学习网络网络:DIGNN。Disentangled Information GNN.

Intro:

传统的MP-GNNs 强调同配性(邻居接节点的label或者特征相似),限制了在消息传递框架下GNN的对异配图的表达能力。

此外,过去的工作指出,大部分GNN模型可以视作低通滤波器。而异配节点为了躲避检测,会频繁的同正常节点交流,导致欺诈节点的特征和行为模式(拓扑)不一致,局部异配性强,导致欺诈节点可以较为轻松的躲避MP-GNNs的检测。

相关的尝试解决异配性的工作:GraphConsis、PC-GNN、Care-GNN它们使用了一些方法来选择或者重链接相似的节点,在筛选中排出异配节点的过程中丢失了一些重要的信息。

本文的关键贡献:

  1. 不一致性问题的主要原因是拓扑结构和属性之间的冲突。把原图分为multi-view ,在用attention融合,解决拓扑和属性之间的冲突。

  1. 最小化不同view的embedding的互信息,降低不同view之间信息的冗余,从而解决不同view之间的干扰。

  2. 最大化$Z_i$和$X_i$之间的互信息,每个view的embedding尽可能的保留原输入的信息,减少第二点中对view间共享信息的损害。 $min\ I(\mathbf{Z_1, Z_2})-\sum_{i=1}^{2}I(\mathbf{Z_i, X_i})$

  3. 变分推理的方法求原优化目标的上下限,得到近似的优化目标,解决互信息计算的难题。

Math on Infromation Gain