该项目利用统计物理方法深入分析深度图卷积网络(GCNs)在节点分类任务中的泛化性能,特别关注上下文随机块模型(CSBM)数据生成模型下的表现。研究探讨了网络深度、残差连接和正则化对GCNs性能的影响,发现增加网络深度对实现贝叶斯最优学习率至关重要,同时残差连接和缩放有助于缓解过平滑问题。这为设计更有效的深度学习模型提供了理论基础,特别是在处理图结构数据时。
NodeFormer是一个基于Transformer架构的可扩展图结构学习模型,专为节点分类任务设计。它能够处理大规模图数据,并适用于社交网络、推荐系统等多种场景。