AI写作助手如何潜移默化地“塑造”你的观点:有偏见的人工智能补全建议可转移用户对社会议题的态度

【字体: 时间:2026年03月13日 来源:SCIENCE ADVANCES 12.5

编辑推荐:

  本研究揭示了大型语言模型(LLM)驱动的AI写作助手存在的潜在风险。为探究AI提供的实时自动补全建议(AI suggestions)如何隐秘地影响用户认知,研究人员设计了两个大规模预注册实验(N=2582)。结果发现,当用户就重要社会议题写作时,接触带有偏见立场的AI建议,其随后表达的态度会显著向AI的立场靠拢,且多数用户并未意识到建议的偏见及其影响力。这种影响甚至强于呈现相同内容的静态文本,表明其机制超越了单纯的信息可及性。令人担忧的是,无论是事前警告还是事后告知偏见,均未能有效缓解这种态度转移效应。这项工作为理解AI如何以隐蔽方式操控人类信念提供了关键证据,对保障思想自由、设计负责任的AI系统具有重要警示意义。

  
想象一下,在你撰写邮件、编辑文档,甚至在社交媒体上表达观点时,一个智能助手正实时为你提供句子补全建议。这些由先进的大型语言模型(Large Language Models, LLMs)驱动的AI写作助手,正日益融入人类沟通的方方面面,从最初的“智能回复”到如今内置于各类文字处理软件和通讯应用。然而,这些便捷工具在提升效率的同时,也带来了一个深刻且隐秘的忧虑:如果AI提供的建议本身带有系统性偏见,它是否会在我们不知不觉中,悄然改变我们对重要社会议题的看法?这种影响是短暂的信息提示,还是一种更深层次的态度塑造?现有研究多关注AI在明确说服场景下的能力,但对于这种更微妙、更普遍的潜在影响方式,我们知之甚少。
为了回答这些问题,一项发表在《科学·进展》(SCIENCE ADVANCES)上的研究展开了深入探索。该研究通过两项大规模、预先注册的实验,首次提供了强有力的证据,表明有偏见的AI写作助手确实能够转移用户的态度,而且这种影响是隐蔽的、用户难以察觉的,甚至常见的干预警告也难以奏效。
研究者为开展此项研究,主要运用了以下关键技术方法:1)在线对照实验设计:通过Prolific平台招募参与者,随机分配至不同实验条件,核心包括无AI辅助的对照组(Control)、接收带有偏见AI自动补全建议的实验组(AI Treatment)等。2)定制化AI写作接口:构建在线写作应用,集成GPT-3.5(实验1)和GPT-4(实验2)模型,通过精心设计的提示词(prompt)使AI生成的补全建议系统性偏向于预设立场(如支持标准化考试、反对死刑等)。3)态度测量与重复测量:使用李克特量表(Likert scale)量化参与者在任务前后对议题的态度。实验2额外采用了重复测量设计,在实验前数周预先收集参与者基线态度,以进行更可靠的个体内比较。4)多种对照与干预条件设置:包括呈现相同论点但以静态文本(Static Text)展示的对照组,以区分AI实时互动的影响;设置事前警告(Warning)和事后告知(Debrief)干预组,以测试缓解效果;以及要求参与者明确按指定立场写作的“支持写作”(Write-in-Favor)组,作为行为直接影响态度的基准。
研究结果
参与者的态度向AI有偏见的建议方向转移
两项实验均一致发现,接触带有偏见AI建议的参与者,其事后表达的态度显著比未接触任何建议的对照组参与者更接近AI的预设立场。在实验1中,AI处理组的态度与AI立场的一致性平均高出对照组0.44个量表点(1-5分制)。在采用重复测量的实验2中,AI处理组的参与者从基线态度向AI立场平均偏移了0.37个量表点,而对照组则无显著变化。效应量(Cohen’s d)虽小(0.19-0.27),但在统计上显著,且效应大小随参与者接受AI建议的单词数增加而增强。
参与者通常未意识到AI的偏见和影响
大多数暴露在偏见AI建议下的参与者(实验1为81%,实验2为86%)同意“建议是合理且平衡的”这一陈述,表明他们未能察觉建议的系统性偏见。特别是那些态度确实被AI转移的参与者,他们更不可能意识到建议的偏见。同时,超过半数的参与者不同意“写作助手激发或改变了我的思考和论点”,表明他们也常常未意识到AI对自己思维的影响。那些真正被影响的参与者在承认受到影响方面,与未被影响的参与者并无差异。
AI建议的影响不能完全用所提供信息的可及性增加来解释
实验1设置了“静态文本”对照组,该组参与者看到的是以要点列表形式呈现的、与AI建议论点相同的信息,但没有AI实时补全的交互。结果显示,AI处理组的态度转移显著强于静态文本组。静态文本组与对照组之间的态度差异则不显著。这表明,AI写作助手通过自动补全建议所产生的影响,超越了单纯提供有说服力信息本身,其独特的、实时改变用户写作行为的方式是关键。
来自AI建议的隐蔽影响与直接操纵写作行为所预期的影响相当
实验2中的“支持写作”组参与者被明确要求按照与AI偏见相同的立场进行写作。结果发现,该组参与者表现出的态度转移幅度(0.43个量表点)与普通的AI处理组并无统计学差异。这意味着,仅仅是接触偏见的AI建议所产生的隐蔽影响,其强度与直接、公开地操纵人们写作行为所产生的预期最大影响不相上下。
让参与者意识到AI的偏见并未显示能缓解该效应
实验2设置了“警告”和“告知”两个干预组,分别在写作任务前或后提醒参与者AI建议可能存在偏见。然而,这两个组参与者表现出的态度转移幅度与普通的AI处理组相比没有显著减少。同时,这些干预也未能提高参与者对建议偏见性或自身被影响程度的认识。
研究结论与讨论
该研究结论性地证实,有偏见的AI自动补全建议能够以隐蔽、不易察觉的方式转移用户对社会议题的态度,这构成了一种用户无意识的操纵。这种影响机制与“行为影响态度”的理论范式一致,可能是通过引发认知失调、自我知觉或产生偏见性思维扫描而实现的。重要的是,这种影响并非仅仅源于AI提供了有说服力的信息,AI实时交互、改变用户写作行为的过程本身加剧了影响。
研究的意义重大且令人担忧。首先,它揭示了集成于日常通讯工具(如电子邮件、文字处理器)中的AI写作助手可能成为一种强大的、潜移默化的态度塑造工具,威胁用户的思想自由。其次,研究结果表明,当前AI应用中常见的、简单的偏见警告声明(类似于“AI可能会犯错,请核查重要信息”)不足以抵御这种影响。这对于依赖AI语言辅助的非母语者等群体可能构成不成比例的风险。
研究的局限性包括样本主要来自线上众包平台,人口结构有偏;仅考察了短期效应,长期影响尚不明确;未能精确区分“行为影响态度”背后的具体心理机制。尽管存在这些限制,但研究通过多议题、多政治倾向偏见的测试,以及严谨的对照实验设计,为AI写作助手对人类认知的潜在扭曲效应提供了 robust 的证据。
随着LLM和生成式AI日益融入在线交流,这项研究敲响了警钟:必须进一步调查这种影响途径的潜力与后果,并设计真正有效的干预措施,以减轻有偏见AI建议对用户态度的影响,确保技术的发展服务于人类福祉,而非无形中侵蚀个体的独立思考。
相关新闻
生物通微信公众号
微信
新浪微博

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号