康奈尔大学与Facebook共同发布的一项研究揭示了通过结合简单模型与传统标签传播方法,在特定数据集上超越当前最优图形神经网络(GNN)性能的可能。这一创新不仅匹配了最先进的GNN性能,且参数量更少,运行效率显著提升。
图形神经网络作为图学习领域的关键技术,近年来取得了重大进展。然而,理解其性能提升的原因及扩展到大型数据集的局限性成为研究焦点。本研究旨在探索简化模型与标签传播方法的潜力,以期在节点分类任务上实现更优性能。
研究团队提出了一种简化管道,包括基础预测、校正步骤和平滑图预测结果三个核心部分。基础预测阶段使用忽略了图结构的节点特征进行预测。校正步骤通过在训练数据中传播残差来纠正测试数据中的错误,预测关联则平滑测试数据上的预测结果。这些步骤通过经典的标签传播技术实现,形成了一套称为“校正与平滑”(C&S)的后处理方法。
该方法在多个标准节点分类基准上展现出卓越性能,超越了当前最优GNN模型,且参数量仅为后者的1/137,训练时间缩短至1/100。实验结果证实了直接利用标签信息进行预测的重要性,即使是最简单的标签传播方法也能在多种任务中取得显著效果。
研究发现,结合节点特征和标签直接使用的预测能力,能够显著提升模型性能。相比于复杂的GNN模型,该方法不仅降低了参数需求和训练时间,还展示了可扩展性,适用于大型图数据集。此外,该方法还能与现有的GNN模型集成,实现性能增益。
通过在Arxiv、Products、Cora、Citeseer、Pubmed、Email、Rice31、US County和wikiCS等九个数据集上进行实验,研究团队证明了C&S框架的有效性,尤其是在性能提升和参数减少方面的显著优势。
本文研究揭示了简化模型与传统标签传播方法在节点分类任务上的潜在价值,通过实验证明了其超越当前最优GNN性能的可能性。这一发现为图学习领域提供了新的视角,有望促进更高效、更灵活的模型开发,尤其是在资源有限的场景下。