(一)中文标题 “幸福的无知”:真实沟通场景中AI使用披露、不确定性及注意力对社会印象形成的影响

《Computers in Human Behavior》:Blissful (A)Ignorance: Despite the widespread adoption of AI in communication, people do not suspect AI use in realistic contexts

【字体: 时间:2026年02月18日 来源:Computers in Human Behavior 8.9

编辑推荐:

  (二)编辑推荐语 为探究在AI生成文本日益普遍的背景下,社会印象如何受AI使用披露、不确定性及注意力影响,研究人员开展了“Blissful (A)Ignorance”研究。通过两项在线实验(N = 1301),发现在AI使用明确披露时会产生显著的负面评价(AI penalty);但在更真实的、未披露或存在不确定性的情况下,该惩罚消失或显著减弱,人们未表现出怀疑,其印象与确认是人类撰写时无异。这揭示了AI采纳与社会认知间的惊人差距,对AI中介沟通时代的真实性、信任与公平性讨论具有重要意义。

  
(五)论文解读文章
想象一下,你在工作中收到了上司发来的一封非常温馨的电子邮件。邮件中,他/她竭尽全力感谢你最近的贡献,并表达了深切且私人的感激之情。这封邮件篇幅长、文笔好,给你留下了温暖的印象。然而,几天后你得知,这封邮件并非你上司亲笔所写,而是他/她逐字逐句使用生成式AI聊天机器人生成的。此时,你的感受会如何?很多人会感到失望、背叛甚至愤怒。这封起初看似真诚感谢的信号,可能瞬间变得空洞或具有欺骗性。
这并非空想。已有大量实证研究表明,当人们知道某条信息是由AI生成时,相比确认是人类撰写时,会对信息发送者形成明显更负面的社会印象。这种现象被称为“AI披露惩罚”(AI disclosure penalty)。然而,这些先前研究大多在参与者被明确告知或强烈怀疑信息涉及AI的情境下进行。在更真实的日常生活中,AI的使用通常未被披露,且充满了不确定性。这引发了一系列关键问题:当AI使用未被披露或存在不确定性时,社会印象如何形成?在缺乏明确告知的情况下,受众会怀疑AI的参与吗?AI工具的广泛采用,是否让人们普遍对书面沟通变得更加警惕和多疑,还是说人们大多并未意识到他人可能使用了AI?
随着AI中介沟通(AI-mediated communication)技术日益普及,并以微妙且常常不被披露的方式运作,上述问题变得愈发重要。由Duke University的Jiaqi Zhu和Andras Molnar开展的研究,正是为了系统地探讨在现实沟通情境(如电子邮件、社交媒体、短信)中,关于AI使用的不同确定性和知晓程度如何影响社会印象。他们的研究成果发表在《Computers in Human Behavior》期刊上。
为了回答这些问题,研究团队在两项在线实验中(总参与者N = 1301),采用了实验性小插曲(experimental vignette)方法。他们设计了涵盖个人与职场、亲密朋友与陌生人等多种情境的沟通场景(如感谢信、求职信、社交媒体帖子、短信、约会简介)。关键操作在于,向参与者提供了关于信息源(即邮件或帖子是谁写的)的不同信息:明确告知为“人类撰写”(human-written)、明确告知为“AI生成”(AI-generated)、仅告知“不确定”(uncertain,可能由AI生成,也可能由人类撰写),以及在“无信息”(no information)条件下完全不提及AI的可能性,让参与者仅基于文本内容形成印象。随后,参与者从友好、真诚、可信、勤奋、有思想等十个维度评价信息发送者,形成综合的社会印象分数。
主要研究发现如下:
  1. 1.
    确认存在“AI披露惩罚”:当参与者确切知道信息完全由AI生成时,他们对发送者的评价显著低于确切知道信息由人类撰写时。这一发现与以往研究一致,确认了明确的AI使用披露会引发负面社会印象。
  2. 2.
    不确定性显著减轻惩罚:在“不确定”条件下(即参与者知道发送者可能使用了AI,但不确定),参与者的印象评价虽然略低于“人类撰写”条件,但显著高于“AI生成”条件。更重要的是,他们的评价更接近于“人类撰写”条件,而非“AI生成”条件。这表明,在缺乏确定性信息时,人们并未完全将可能的AI使用视为等同已知的AI使用,从而施加同等严厉的惩罚。
  3. 3.
    无信息条件下的“幸福无知”:最令人惊讶的发现来自“无信息”条件。当参与者未被提示考虑AI使用的可能性时,他们对发送者的印象与“人类撰写”条件下几乎完全相同,且显著优于“AI生成”条件下的印象。这意味着,在默认的、未受提示的现实沟通中,人们并未主动怀疑或搜索AI使用的线索,其判断与假设信息完全由人类撰写时无异。
  4. 4.
    仅关注可能性即产生负面影响:研究还发现,即使没有提供确切信息,仅仅将参与者的注意力引导至AI使用的可能性上(即“不确定”条件与“无信息”条件对比),也会导致对发送者的评价轻微但显著地更加负面。这说明,仅仅是意识到AI可能被使用,就足以触发一定程度的怀疑和负面评价。
这项研究还探讨了个体差异的调节作用。研究发现,参与者自身使用AI的频率、年龄和收入水平会调节“AI披露惩罚”的强度(例如,更频繁的AI使用者对使用AI的发送者评价相对更宽容),但这些因素并不影响他们在“无信息”或“不确定”条件下的判断模式。此外,参与者自报告的AI专业知识与熟悉度并未显著影响任何条件下的印象评价。
研究结论与重要意义
这项名为“Blissful (A)Ignorance”的研究揭示了一个关键悖论:尽管生成式AI在沟通中的使用日益广泛,但在真实的、未经提示的互动中,人们很大程度上并未意识到他人可能使用了AI。除非AI使用被明确披露,否则人们默认假设信息是人类撰写的,并据此形成积极的社会印象。这一发现凸显了AI技术的快速采纳与社会认知之间的显著差距。
从理论角度来看,研究结果为“真相默认理论”(Truth Default Theory)提供了支持,该理论认为在缺乏明确欺骗线索时,人们倾向于默认信息是真实的(在此情境下,即默认信息是人类撰写的)。同时,研究也表明,仅仅通过引导注意力来创造不确定性,就足以削弱这种默认信任,导致印象向更负面的方向偏移。
这项研究具有重要的现实意义。首先,它表明在大多数日常沟通中,未披露的AI使用可能不会像实验室研究中预测的那样引发严重的社交惩罚,这可能部分解释了为何人们愿意在沟通中隐蔽地使用AI工具。其次,它警示我们,任何关于AI使用的讨论或政策(如强制披露要求),即使没有提供确定性结论,也可能通过唤起人们对这一可能性的关注,从而无意中加剧社会怀疑和不信任感,影响人际关系质量。最后,研究强调了在AI中介沟通时代,理解信任、真实性和社会印象动态变化的复杂性。随着AI技术进一步融入日常生活,维持人际沟通中的信任基石将成为一个持续性的挑战和重要研究议题。
相关新闻
生物通微信公众号
微信
新浪微博

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号