青岛网站,惠州免费自助建站模板,网站如何做宣传,网络营销的功能转载请注明出处#xff1a;小锋学长生活大爆炸[xfxuezhang.cn] 背景说明 大多数博客在介绍GCN层数时候#xff0c;都会提到如下几点(经总结)#xff1a;
在第一层#xff0c;节点聚合来自其直接邻居的信息。在第二层#xff0c;由于每个节点现在包含了其直接邻居的信息小锋学长生活大爆炸[xfxuezhang.cn] 背景说明 大多数博客在介绍GCN层数时候都会提到如下几点(经总结)
在第一层节点聚合来自其直接邻居的信息。在第二层由于每个节点现在包含了其直接邻居的信息它们在聚合直接邻居的特征时也间接地聚合了二跳邻居的信息。这个过程可以继续进行每增加一层信息聚合的范围就扩大一跳 但我们看代码时候其实会发现GCNCov内的操作其实是一样的那它是如何通过叠加多层就可以聚合多跳邻居的呢 如何理解 其实我们需要明白一点就行它是“间接”聚合。 比如 第一层GCNCov时候每个节点都能得到其一跳邻居的信息并根据所有邻居的信息更新自己的信息。这个没有问题很好理解。 然后我们需要意识到更新后的节点实际上已经包含了其所有邻居的信息了。相应的当前节点的邻居也包含了它自己的邻居信息。 那么在做第二层GCNCov时候由于邻居节点包含了邻居节点的邻居所以当前节点就间接地包含了二跳的邻居信息。 因此我们实际上也可以发现在做这两次GCNCov时候其一跳邻居的信息被利用了多次会造成冗余。此外随着层数的增加由于“间接”也在增加似乎越远的节点信息对当前节点的贡献也会变弱。 此外过多的层可能导致过度平滑over-smoothing问题即不同节点的特征变得越来越相似损失了区分度。 因此层数越多效果越差似乎也可以解释了 最后再画个图理解一下