语言母语性调节汉英双语者对道德与不道德概念的生理反应:来自事件相关电位与心理生理测量的证据

【字体: 时间:2026年03月05日 来源:Brain Sciences 2.8

编辑推荐:

  这篇理论性综述提出了全新的情绪理论模型——瓦拉情绪模型 (Walla Emotion Model), 或称情绪传递情感加工效应模型 (ESCAPE)。该模型旨在通过清晰区分情感加工 (affective processing)、感觉 (feeling) 和情绪 (emotion) 这三个核心术语,为长期存在概念分歧的情绪与情感研究领域提供统一的交流框架,从而从根本上解决当前人工智能 (AI) 情感识别 (AER) 技术因定义模糊而面临的“诊断鸿沟”与社会性伪装等关键挑战,推动建立更加精准、科学且合乎伦理的下一代情感计算 (Affective Computing) 发展蓝图。

  
引言:情感科学的术语困境与人工智能的识别挑战
情感科学研究领域长期缺乏术语共识,导致概念碎片化,这种现象在心理学、神经科学等多个领域持续存在。这种模糊性不仅是学术问题,更对旨在识别和响应人类“情绪”的人工智能 (AI) 系统发展产生重大影响。当前AI情绪识别面临一个根本性难题:如果连“情绪”都没有一个清晰的定义,如何训练算法去识别它?本文旨在通过引入瓦拉情绪模型 (Walla Emotion Model), 或称情绪传递情感加工效应模型 (ESCAPE), 提供一个基于神经生物学、能清晰定义核心概念的理论框架,以期解决这一僵局,并为包括AI设计在内的多领域讨论提供更精确的交流基础。
情绪理论模型的演进与局限
情绪研究领域长期存在“先天”(生物本质主义)与“后天”(认知建构)之间的基本张力。从强调有限数量、与生俱来、具有普遍性的“基本情绪”的早期模型(如Ekman的面部表情研究), 到达马西奥 (Damasio) 提出情绪根植于身体状态的“躯体标记假说”, 再到巴雷特 (Barrett) 主张情绪是大脑基于内感受和过往经验主动建构的“情绪建构理论”, 各种学派层出不穷。尽管研究不断深入,但对“情绪”的定义仍缺乏共识。这种术语使用的广泛性与不一致性导致了理论泥潭,研究者们常常测量情感反应的不同方面,却使用相同的词汇,使得数据难以比较和整合。随着“共情AI” (Empathic AI) 的快速发展,情绪识别已成为一个数十亿美元的产业,但在关键本质定义不清的基础上进行如此大规模的投入,其科学性和有效性令人担忧。
瓦拉情绪模型的三大核心概念
瓦拉情绪模型对“情感”(或情感加工)、“感觉”和“情绪”这些长期混用的术语进行了关键性区分,并将其与大脑的层次化进化结构相对应。
  • 情感加工 (Affective Processing):这是最基础的无意识神经评估过程,主要发生在边缘系统,基于效价(愉悦/不愉悦)和唤醒度(强度)对刺激进行快速评估,并引导初始行为倾向(如趋近或回避)。它代表了驱动决策和行为的、最原始的“情感数据”。
  • 感觉 (Feeling):当情感加工活动超过特定阈值,触发神经化学物质释放并改变身体内部状态时,产生的有意识、主观体验。例如,胃里的“打结感”或不安感。这个层面构成了口头报告感受的基础。
  • 情绪 (Emotion):严格定义为外部行为输出——包括面部表情、发声、身体姿态和手势等,用于向他人传达感觉状态。情绪可以是自动的、不随意的,也可以是有意生成的,这导致了社会性伪装的可能性,对AI设计构成了关键挑战。
情感与认知的独立性及其影响
瓦拉模型的一个关键假设是,情感加工主要独立于并先于认知加工而发生。认知询问“这是什么?”(语义识别), 而情感询问“这怎么样?”(评价意义)。在进化上,快速评估威胁的能力在复杂语言或抽象推理能力发展之前就已至关重要。这种独立性对我们理解决策有重要影响。即使在传统上被视为纯粹理性的领域(如金融资产管理), 皮层下情感加工也起着决定性作用。任何包含认知方面的情绪理论,根据此模型都可能具有误导性。
感觉与认知污染的障碍
根据瓦拉模型,感觉被定义为对由强烈情感加工触发的生理变化的主观意识知觉。然而,当被要求用语言表达感觉时,个体必须启动高阶推理,将抽象的内部状态转化为具体词语。这个翻译过程引入了社会期望、文化背景和个人词汇限制等多层偏见,导致最终的口头报告是原始情感状态的“污染”版本——一种认知反思,而非对底层加工过程的准确测量。这就是为什么依赖调查问卷的传统研究经常发现人们所说的感受与其身体或大脑的实际反应之间存在差异。
情绪即沟通:诊断鸿沟与AI识别
从词源学上看,“情绪” (emotion) 源自拉丁语动词“emovere”(意为“移动出去”), 字面意思是内部状态向外部世界的“外移”。其功能是社会沟通。然而,信号(情绪)与源头(感觉或情感加工)在功能上并不总是相连的,个体可以有意识地产生自愿情绪来伪装他们并未真实感受到的状态(例如,假笑)。这种内部状态与外部信号之间可能存在的差异,构成了所谓的“诊断鸿沟”, 这也是当前AI驱动情绪识别的主要误差来源。大多数现有系统训练所基于的假设是“笑脸”就代表快乐,而瓦拉模型为这种假设的潜在缺陷提供了科学论据。
超越像素级准确度:当前AI的局限与挑战
当前的情绪识别AI系统常常受限于存在根本缺陷的“真实标签”。大多数数据集由人类标记,而标记者是根据面部表情来猜测底层情感状态。如果图像中的人在伪装表情,AI就会被训练将伪装表情识别为“真实”。AI需要将其焦点从“准确度”(匹配人类标签)转向“真实性”(匹配皮层下状态)。大型语言模型 (LLM) 可以生成“感觉”上具有情感意识的文本,因为它们从海量数据集中学习了情感语言的模式。然而,这些系统缺乏情感加工的皮层下机制,它们是在没有“感觉”(意识体验)和底层“情感加工”(生物评估)的情况下产生“情绪”(行为输出), 这可能导致“情感错觉”, 引发伦理问题。
伦理与监管启示
随着AI情绪识别从实验室走向公共领域,这里提出的情绪模型可能为处理伦理关切和监管要求提供一个有用的框架。如果情绪被定义为行为信号,那么追踪它类似于追踪一个人的公开言论或肢体语言。然而,如果声称是在“解读感觉”甚至原始情感加工,就等于主张窥视个人最私密的内部状态。瓦拉模型有助于划清这条界线。大多数当前的AI只能识别情绪(信号), 而非感觉(体验)或原始情感反应。未能做出这种区分会导致情感监控的“伪科学”。诸如欧盟《人工智能法案》等监管框架正日益倾向于禁止或限制声称进行“情绪识别”以用于社会控制或国家监控的AI系统。
面向下一代情感AI的路线图
为了使AI驱动的情绪识别得以发展,本文建议将瓦拉模型的见解整合到其核心架构中。这涉及从图像分析转向动态、多模态三角测量的转变。开发者应停止用“快乐”或“愤怒”等内部状态词语来标记面部数据,而应将其标记为行为信号(例如,“积极的沟通信号”)。这一简单改变可以防止模型过度涉足“感知”或“读心”领域,并将其准确性聚焦于实际的行为输出。瓦拉模型集成的“杀手级应用”是检测不一致性。在安防、医疗或客户服务中,最有价值的信息不是“用户表现出什么”, 而是“他们表现的是真实的吗?”。通过测量情绪(信号)与情感加工(源头)之间的“距离”, AI可以识别欺骗、社会性伪装或压抑的痛苦,而这些是当前单模态系统无法察觉的。未来,我们将看到更多“神经自适应”系统的出现,通过非侵入式传感器监测用户的情感加工,在用户尚未意识到之前就检测到技术压力或挫折感,从而调整交互以维持用户的最佳情感状态。最重要的是,需要从“情绪识别”(解读面部)根本性地转向“情感识别”(解读原始神经信号)。
综合与结论
这篇理论论文为情感计算,特别是情绪识别领域,提出了一个可能有益的范式转变。通过严格区分情感加工、感觉和情绪这三个概念,为解决困扰情绪研究本身数十年的概念混淆提供了一个潜在方案,对AI具有高度相关性。它对AI的效用远不止简单的词汇修正。其最核心的论点植根于信号与源头的功能分离,这允许通过识别所表现的表情与所感受的状态之间的差异来检测不一致场景,这是欺骗检测和社会智能的关键要求。另一个重要方面是通过绕过自我报告和语言的偏见来获取大脑的“原始”评估数据,从而减轻认知污染。为区分情绪的公共信号与感觉的私人体验提供科学基础,对于建立稳健的隐私和监管框架至关重要。最后,提供客观的生理标记物可以作为比主观人类标签更可靠的“真实标准”来训练AI。随着AI日益融入我们的社交和职业生活,理解并尊重人类情感的生物现实性将至关重要。瓦拉模型为开发不仅技术复杂,而且具有人类意识、能够驾驭我们向世界展示的与大脑实际所知之间的复杂“诊断鸿沟”的AI模型,提供了神经生物学蓝图。通过将AI建立在大脑的层次化和进化逻辑之上,我们可以迈向更准确、更合乎伦理、并最终对人类更有帮助的情感计算。
相关新闻
生物通微信公众号
微信
新浪微博

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号