传统GNN在异常检测中表现不佳的原因在于拓扑结构和属性的冲突。因此,使用两个网络分别从拓扑和属性两个视角学习节点的表征,最后利用注意力机制来融合两者、使用互信息来约束两者,最终得到异配图节点表征学习网络网络:DIGNN。Disentangled Information GNN.
传统的MP-GNNs 强调同配性(邻居接节点的label或者特征相似),限制了在消息传递框架下GNN的对异配图的表达能力。
此外,过去的工作指出,大部分GNN模型可以视作低通滤波器。而异配节点为了躲避检测,会频繁的同正常节点交流,导致欺诈节点的特征和行为模式(拓扑)不一致,局部异配性强,导致欺诈节点可以较为轻松的躲避MP-GNNs的检测。
相关的尝试解决异配性的工作:GraphConsis、PC-GNN、Care-GNN它们使用了一些方法来选择或者重链接相似的节点,在筛选中排出异配节点的过程中丢失了一些重要的信息。
最小化不同view的embedding的互信息,降低不同view之间信息的冗余,从而解决不同view之间的干扰。
最大化$Z_i$和$X_i$之间的互信息,每个view的embedding尽可能的保留原输入的信息,减少第二点中对view间共享信息的损害。 $min\ I(\mathbf{Z_1, Z_2})-\sum_{i=1}^{2}I(\mathbf{Z_i, X_i})$
变分推理的方法求原优化目标的上下限,得到近似的优化目标,解决互信息计算的难题。