
-
生物通官微
陪你抓住生命科技
跳动的脉搏
利用扩散辅助蒸馏技术进行基于多层感知器(MLPs)的自监督图表示学习
《IEEE Transactions on Artificial Intelligence》:Diffusion-Assisted Distillation for Self-Supervised Graph Representation Learning With MLPs
【字体: 大 中 小 】 时间:2026年02月28日 来源:IEEE Transactions on Artificial Intelligence CS6.4
编辑推荐:
DAD-SGM通过引入去噪扩散模型作为辅助教师,有效解决自监督图表示学习中GNN与MLP的性能差距,提升MLP的泛化能力和鲁棒性,实验验证优于现有蒸馏方法。
图神经网络(GNN)已成为分析非欧几里得图数据的强大工具。GNN通过消息传递机制捕捉复杂的图结构,其中节点与其邻居交换信息。这种消息传递机制提供了对分析图结构数据有益的空间归纳偏差。然而,随着图规模的增大,这种消息传递方法会带来显著的计算开销[1]。为了解决这一可扩展性问题,研究人员探索了用更轻量级的多层感知器(MLP)替换GNN。虽然MLP缺乏消息传递所提供的结构偏差,但它们具有更高的可扩展性。为了结合GNN和MLP的优势,研究人员越来越多地采用知识蒸馏[2]技术,这是一种将GNN的特定任务知识转移到MLP中的有效方法。对于半监督节点分类,图辅助神经网络(GLNN)[3]最小化了GNN教师模型和MLP学生模型之间的Kullback–Leibler散度。全频GNN到MLP蒸馏(FF-G2M)[4]将教师模型的知识分解为高频和低频信号,然后鼓励学生模型模仿这两种信号。对于链接预测,无链接链接预测(LLP)[5]将围绕每个(锚点)节点的特定关系知识传递给学生MLP。这些GNN到MLP的蒸馏方法使MLP在目标任务中能够达到与GNN相当的性能。