基于节点注入的对抗性攻击与防御:针对社交机器人的检测方法

《IEEE Transactions on Computational Social Systems》:Node Injection-Based Adversarial Attack and Defense on Social Bot Detection

【字体: 时间:2026年02月20日 来源:IEEE Transactions on Computational Social Systems 4.9

编辑推荐:

  社交媒体中基于图神经网络的检测模型易受对抗攻击,本文提出黑盒注入攻击方法,成功率达95.74%,并设计一种无额外数据与计算成本的对抗训练策略,使模型鲁棒性提升达95.74%。

  

摘要:

像Twitter这样的社交平台日益受到自动化社交机器人的威胁,这些机器人可以操纵公众舆论、传播错误信息并损害平台的完整性。为了检测这类账户,已经提出了多种方法,其中许多近期方法利用了图神经网络(GNN),因为它们能够模拟用户之间的关系结构。然而,这些模型可能容易受到利用其结构依赖性的对抗性干扰。为了研究这种脆弱性,我们提出了一种针对性的黑盒节点注入攻击,通过在目标机器人附近注入一个新的机器人来欺骗检测模型,从而使两者都逃避检测。这种攻击专门针对基于GNN的模型行为设计,不需要任何对模型参数或架构的访问权限。鉴于这种攻击在暴露结构弱点方面的成功,开发有效的防御措施以提高检测模型的鲁棒性至关重要。为此,我们引入了一种成本效益高的对抗性训练方法,该方法在训练过程中有选择地强调对抗性样本。这种方法在不增加计算成本或需要额外数据的情况下提高了模型的鲁棒性。通过在六个不同模型上进行的实验评估,证明了我们的攻击和防御方法的有效性。具体来说,在Cresci-2015模型中,我们实现了95.74%的最大攻击成功率(ASR)和95.74%的鲁棒性提升;在TwiBot-22模型中,我们实现了97.15%的最大攻击成功率(ASR)和56.20%的鲁棒性提升。经过对抗性训练后,这些模型的检测性能波动幅度小于2%。

引言

随着Twitter、Weibo和Facebook等在线社交网络的发展,这些平台已成为人们日常生活的一部分,并成为信息和交流的渠道[1]。然而,随着它们在政治和经济等领域的影响日益增大,也带来了各种威胁。其中一个主要威胁是社交机器人的出现[2]。这些社交机器人通常由自动化程序或平台特定的API控制,常被用来传播谣言[3]、干扰选举[4]、进行在线欺诈[5]以及其他恶意活动[6]。鉴于这些恶意社交机器人对在线社区造成的威胁以及由此产生的不良社会影响,迫切需要有效的检测模型。现有的社交机器人检测方法大致可以分为三类:传统的机器学习方法[7]、[8]、[9]、众包策略[10]以及基于图的模型[11]。其中,图神经网络(GNN)因能够通过消息传递捕捉社交结构而在近期研究中表现出色[12]、[13],因此受到了越来越多的关注。

相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号