编辑推荐:
这篇综述的核心思想是,针对AI“情绪”识别领域长期存在的术语混乱和概念碎片化问题,瓦拉(Walla)情绪模型(或称ESCAPE模型)提供了一个清晰的神经生物学框架。该模型明确定义了情感处理(Affective Processing, AP)、感觉(Feeling)和情绪(Emotion)三个独立概念,为解决“诊断鸿沟”(如情绪伪装)提供了理论基础,并为开发更准确、更符合伦理的下一代情感AI指明了方向。
情感科学领域长期以来饱受术语缺乏共识的困扰,这种概念上的碎片化在心理学、神经科学等众多学科中持续存在。这种模糊性不仅是学术问题,更对旨在识别和响应人类“情绪”的人工智能(AI)系统发展产生了重大影响。瓦拉情绪模型(亦称ESCAPE模型)提供了一个潜在的、基于神经生物学的框架,旨在通过为情感处理、感觉和情绪建立清晰、互不重叠的定义,来解决这一僵局。该模型的核心是引入一个概念,允许以内-外部信号不一致的检测,并以清晰的术语支持可理解的沟通。这对于识别伪装或被社会面具掩盖的内部情感状态至关重要,而这是传统的“表情解读”AI模型经常无法应对的挑战。
1. 引言
AI驱动的“共情”系统旨在感知、学习并回应人类的“情绪状态”,这已成为一个价值数十亿美元的产业。然而,一个根本性的问题在于:当人类自身对“情绪”尚无明确定义时,如何训练算法去识别它?现有情绪研究领域存在着“天性”(生物本质主义)与“教养”(认知建构)之间的根本张力。从强调“基本情绪”的普拉奇克、埃克曼理论,到达马西奥植根于身体状态的“躯体标记假说”,再到拉塞尔和巴雷特的维度与建构理论,学界对“情绪”的定义五花八门。这种术语的不一致导致了理论上的泥潭,研究者们常常测量情感反应的不同方面,却使用相同的词汇,导致数据难以比较和整合。因此,建立一个清晰的术语体系成为解决沟通障碍、推动AI情绪识别发展的关键。
2. 瓦拉情绪模型的演进
瓦拉情绪模型源于对历史缺陷的批判,特别是“情感(或情感处理)”、“感觉”和“情绪”等术语的混用,以及情感与认知未能分离的问题。该模型建立在达尔文(关注肌肉收缩的交流功能)和威廉·詹姆斯(强调身体变化与感觉体验的联系)等先驱的见解之上。瓦拉等人引入了一个关键区分,将信息处理(即情感处理;原始数据)与其引发的身体变化相关的体验(即感觉;主观体验)以及向社交环境发出的信号(即情绪;肌肉收缩导致的行为输出)分离开来。这种区分根植于大脑的层级演化。人类大脑作为一个多维系统运作,不同处理层级在不同进化阶段发展,但作为一个统一的整体协同工作。皮层下结构在进化上更古老,在负责语言和推理的皮层区域参与之前,就执行快速的、生存导向的环境评估。瓦拉模型将其定义与这些生物现实对齐,在理解人类如何以情感回应刺激时,优先考虑神经活动的客观测量,而非标签的主观解读。以下是该模型的三个核心组成部分:
- •
情感处理(Affective Processing):基于效价(愉悦度)和唤醒度(强度)对刺激进行的快速、无意识的神经评估。这主要发生在边缘系统,并引导初始行为倾向(如趋近或回避)。这实际上是构成感觉和情绪基础的、最关键的原始数据。
- •
感觉(Feeling):当情感处理超过特定阈值,触发改变体内状态的神经化学物质释放时,产生的有意识的主观体验。这是“被感受到的”内部反应,例如胃里的“结”或不安感。这是构成关于个人感觉的言语报告基础的水平。
- •
情绪(Emotion):严格定义为外部的行为输出——面部表情、发声、身体姿势以及手势——用于向他人传达感受到的状态。有趣的是,既有自动的非自愿情绪,也有可能产生自愿情绪。这一点对AI设计可能最为关键,因为它涉及到潜在的“面具”(伪装)问题。
情感处理是大脑功能最基本层面(皮层下评估核心;原始情感数据源)。它代表了“大脑自动评估”某物是好是坏、安全或危险的过程,发生在有意识的“我”意识到之前。这个过程是持续且自动的,提供了一个恒定的评估流,为行为适应提供信息,并主导性地引导人类行为。情感处理映射到两个主要维度:效价和唤醒度。效价指动机方向:大脑评估一个刺激是应该被趋近(积极)还是回避(消极)。唤醒度指评估强度或生理激活程度。与效价和唤醒度相关的神经数据作为行动倾向输入到计划执行适应性行为的决策中枢。边缘系统,包括杏仁核、海马体和下丘脑,是这个处理层的主要部位。这些结构接收感觉输入,并基于进化和习得的关联进行快速评估。由于这种处理发生在深层皮层下,无法被语言的皮层功能和意识反思直接访问。这就导致了“直觉反应”现象:人们能强烈感受到但无法立即用语言解释或证明的反应。它也导致了“认知污染”,下文将进一步讨论。在这个信息处理层面发生的任何事情,都代表了一个人真实的情感反应。这个层面代表了我们最想了解的人类行为处理特性。例如,一项可靠方法(下文将详述)捕捉这一处理水平的反应显示,抑郁症患者在观看积极图片时,其言语报告是积极的,但其测量到的原始情感在大脑深处对图片的评价明显比健康对照组更消极。换句话说,获取原始情感水平提供了一个在自我报告中不显现的可量化的抑郁视图。此外,精神病患者的大脑处理令人厌恶的图片时,其原始情感反应比健康对照组显著更积极,尽管言语报告水平相似。
当前AI驱动的情绪识别常因错误率高而受诟病,因为它假设面部是通往灵魂的直接窗口。人类常常“思考”自己应该如何感受,这污染了自我报告和面部表情。专注于情感处理是目标,因为这一层次的信息处理对这种污染免疫。例如,通过比较FACS(面部动作编码系统)信息与直接代表原始情感的生理数据,AI或许能够通过识别原始情感与一个人谈论某个话题的方式或面部表情之间的不匹配,在数学上计算出社会伪装的程度。
3. 情感与认知的独立性
瓦拉模型的一个关键假设是,情感处理的发生主要独立于认知处理,并且先于认知处理。认知问“这是什么?”,而情感问“这怎么样?”。就进化而言,在复杂的语言或抽象推理能力发展出来之前,快速评估威胁的能力对生存至关重要。这种独立性对我们理解决策有重要影响。即使在传统上被视为纯粹理性的领域,如金融资产管理,皮层下情感处理也扮演着决定性的角色。人脑将情感的“怎么样”信息与认知的“是什么”信息整合,以驾驭复杂环境,但这两种信息流最初是由不同且独立的神经通路处理的。
3.1. 感觉与意识反思的屏障
根据瓦拉模型,感觉被定义为对强烈情感处理触发的生理变化的主观、有意识的感知。当边缘系统的神经活动达到特定阈值时,会刺激神经递质和激素的释放。这些化学物质改变了身体的内部状态,而大脑对这些变化的有意识监控,就是我们体验到的感觉。然而,当被要求用语言描述一种感觉时,人们当然可以尝试,但可能会失败,因为导致感觉的情感处理,由于其在语言出现之前就已进化,本就不是为了被语言化而产生的。这就导致了“认知污染”的概念。
3.2. 认知污染现象
由于情感处理是皮层下处理,而语言是皮层的认知功能,用语言表达情感内容的行为不可避免地会扭曲原始数据。对于感觉也是如此,尽管感觉是有意识的体验。实际上,或许正是因为感觉像所有感知一样是有意识的体验,它们可能容易犯类似于视错觉的错误。当一个人被问到“你感觉如何?”时,他们必须动用更高阶的推理,将一个抽象的内部状态翻译成具体的词语。这个翻译过程引入了多层偏见,包括社会期望、文化期待和个人词汇量的限制。最终,任何有意识的感知都只是我们心理的建构。由此产生的自我报告是原始情感状态的一种“被污染”的版本:一种认知反思,而非对底层处理的准确测量。这就是为什么依赖问卷调查的传统研究经常发现人们声称的感觉与其身体或大脑实际反应之间存在差异。在实证研究中,这常导致内隐测量与外显测量之间的不一致。
3.3. 内隐与外显测量之间的差异
新模型提倡使用客观的内隐测量来捕捉“原始”情感,因为这些测量绕过了意识反思的污染。例如,神经营销学研究表明,虽然参与者在问卷调查中可能对外显地给两个品牌打相似的分数,但他们的生理反应(如测量到的心率、皮肤电导、惊跳反射调制、脑电图)却显示出对其中一个的明显偏好。
4. 作为沟通的情绪
对AI而言,瓦拉模型最独特的替代方案是将“情绪”重新归类为行为输出,而非内部状态。从词源学上讲,“Emotion”源于拉丁语动词“emovere”(向外移动),情绪字面上就是内部状态向社交世界的“向外运动”。这包括面部表情、语调变化、手势、身体姿势等多种行为。从进化角度看,情绪的功能是社会沟通。通过表达“恐惧”这样的内在状态,个体向同类传递感知到的威胁信号,促进群体生存。这个信号意在传达一种感觉,但模型强调信号(情绪)与来源(感觉或情感处理)在功能上并不总是相连的,对于有意的非语言沟通来说可以是不同的。这或许是AI背景下最重要的一点。遵循此模型,可以说AI肯定能够识别情绪,但它能成功解释底层的情绪处理水平活动吗?与其争论AI是否能在不知其为何物的情况下识别人类情绪,这里引入的术语至少允许我们就什么已经可以实现、什么仍需改进展开有意义的讨论。
在该模型下,既存在非自愿情绪,也存在自愿情绪。虽然有些表达是作为超阈值情感处理的结果而自动产生的,但人类也发展出了产生自愿情绪以假装他们并未真实感受的状态的皮层(认知)能力。这在社交“面具”或策略性情绪管理中很常见,个体为维持社交和谐而展示“快乐的面孔”,尽管内心感到痛苦。下图可视化了该模型,区分了行动行为与情绪行为。
5. AI识别的“诊断鸿沟”
情绪与内部状态的功能性分离是“诊断鸿沟”的基础:即表现与感受之间可能存在差异。对于AI驱动的情绪识别,这个鸿沟是主要的误差来源。大多数当前系统的训练基于一个假设:“快乐的脸”就代表快乐。瓦拉模型为这种假设为何可能有缺陷提供了科学论证。面部仅仅是一个信号,可能与内部状态一致,也可能不一致。要真正有用,AI模型应该能够识别这种不一致。例如,如果AI模型检测到微笑,但同时测量到低心率或低皮肤电导,它就可以推断这个微笑是一种社交表演,而非真实感觉状态的反映。在实践中实现这一点,需要从单模态面部识别转向多模态三角测量,即在测量行为输出的同时,测量原始情感处理的客观标记。
惊跳反射调制(SRM)作为“黄金标准”
目前,或许捕捉真实原始情感最可靠的方法是惊跳反射调制。SRM涉及测量对突然巨响(听觉惊跳刺激)产生的眼睑反射幅度。该反射由脑干控制,极难自主抑制。关键在于,眨眼的幅度受个人当前内部情感状态的调制。如果一个人处于积极状态,眨眼幅度会减小;如果处于消极状态,眨眼幅度会增加。由于SRM发生极快,并由皮层下通路控制,它提供了一种“原始”的效价评估测量,不受认知污染影响。SRM被认为是测量原始情感反应的金标准,但目前仍需要实验室环境。然而,从理论角度看,通过综合来自多通道的数据,研究者(以及AI)可以创建一个全面的档案,涵盖从原始情感数据、感觉到表达输出的所有层次。
6. 超越像素级精度
当前AI情绪识别系统常受限于本质上有缺陷的“真实标签”。大多数数据集由人类标记,他们看着一张脸去猜测其底层情感状态。如果图片中的人在伪装表情,那么AI就被训练去将伪装的表情识别为“真相”。AI需要将其重点从“准确性”转向“真实性”。另一个问题是潜在的拟人化和情感模拟。
当前AI的一个重大挑战是共情的模拟。大型语言模型(LLM)可以生成“感觉”上具有情感意识的语言,因为它们从海量数据集中学习了情感语言的模式。然而,正如瓦拉模型所强调的,这些系统缺乏情感处理的皮层下机制。它们在产生“情绪”时,没有“感觉”和底层的“情感处理”。这可能导致“情感错觉”,即用户相信AI“真的喜欢”他们,但在随后的对话中,相反的情况可能导致用户产生非生物的、或至少奇怪的感觉。甚至出现过因看似共情的AI而自杀的案例。AI本质上是社会信号的“随机鹦鹉”:它可以模仿输出,但无法体验源头。
7. 伦理与监管意义
随着AI驱动的情绪识别从实验室走向公共领域,本文提出的情绪模型可能为解决伦理关切和监管要求提供一个有用的框架。如果情绪被定义为行为信号,那么追踪它类似于追踪一个人的公开言语或身体语言。然而,如果有人声称“读取感觉”甚至原始情感处理,那就是在主张窥探个人最私密的内心状态的权利。瓦拉模型有助于划定一条清晰的界限。大多数当前的AI只是在识别情绪,而非感觉,也非原始情感反应。未能做出这种区分会导致情感监控的“伪科学”,当局会认为他们能从面部表情中发掘出隐藏的“意图”或“罪恶感”。像欧盟AI法案这样的监管框架,正因为这类主张的科学基础极其脆弱,正越来越多地禁止或限制声称进行“情绪识别”用于社会控制或国家监控的AI系统。瓦拉模型提供了一个清晰的术语,能够改善关于此主题的任何沟通。
7.1. 数据尊严与知情同意
使用客观生理测量来捕捉情感处理也引发了自身的伦理问题。因为这些测量触及了皮层下、无意识的过程,用户可能甚至没有意识到他们“揭示”了什么。这挑战了传统知情同意的概念——一个人如何能同意揭示一个他们自己都未意识到的状态?一方面,瓦拉模型强调了典型数据收集的行为本质及其对深层内心状态的模糊反映;另一方面,它也引发了关切:是否应该基于外部数据收集来假设一个人的深层内心状态?因此,仅外部数据收集似乎可以接受,但如果基于可以访问深层内心状态的假设做出影响人生的决定,则需要极度谨慎。由于上述的诊断鸿沟,可能会做出错误的假设,这无疑是潜在的危险。我们需要“数据尊严”和算法问责。这包括数据最小化,即仅收集特定任务必需的生理数据。当开始探究人脑中的非意识信息处理时,可能存在获得与“情绪识别”无关但可访问的信息的途径。此类信息应不予触及,仅使用与情感处理相关的信息。同样重要的是,确保情绪识别模型的“逻辑”对用户透明,使他们能够理解他们的生物特征如何被用于生成分类。
7.2. 解决算法偏见
情绪识别中的算法偏见,通常是训练数据集依赖“通用”面部表情的结果。通过承认表达是社交信号,瓦拉模型认可它们本质上是受文化约束的。AI开发者使用瓦拉框架时,被鼓励将面部数据视为更广泛语境的一部分。他们可以构建“区域特定的微调”,并结合人口统计数据,以确保系统不会不公平地惩罚那些情感信号与训练数据中编码的“标准”不同的个体。这加剧了上述的诊断鸿沟问题。
8. 为定义规范的下一代情感AI路线图
为使AI驱动的情绪识别取得进展,本文提议将瓦拉模型的见解整合到其核心架构中。这涉及从图像分析向动态、多模态三角测量的转变。鼓励开发者停止用内部状态词汇来标记面部数据,而应将它们标记为行为信号。这个简单的改变可以防止模型越界进入“感知”或“读心”领域,并将其准确性集中在实际的行为输出上。只要可能,AI模型应该在将表情视频与同步生理数据配对的数据集上进行训练。通过训练AI识别与高唤醒、消极效价生理状态相关的微妙面部模式,我们可以创建出比那些在伪装表情上训练的系统对“真实”情感敏感得多的系统。集成瓦拉模型的AI的“杀手级应用”是不一致检测。在安全、医疗或客户服务领域,最有价值的信息不是“用户在展示什么?”,而是“他们展示的是真实的吗?”。通过测量情绪与情感处理之间的“距离”,AI可以识别欺骗、社交伪装或被压抑的痛苦等实例,这些是当前单模态系统无法发现的。传统的AI模型通常依赖于面部表情分析。然而,社交伪装正是将这种外在表达与内部状态解耦的行为。只有通过测量生理数据,才能检测到个体反应的生物学真相,即使他们的面部表情被完美伪装成中性或积极。在社交伪装作为一种生存机制的情况下,整合客观的神经生理学标记至关重要。这允许检测到高水平压力或消极效价,否则AI会忽视这些,从而确保个体的实际内在状态被理解,而不仅仅是他们的表演性情绪。
未来,我们将看到旨在优化人机交互的“神经自适应”系统的增加。这些系统将通过非侵入式传感器监测用户的情感处理,以在用户意识到之前检测到技术压力或挫折感。然后系统可以调整界面、提供休息或改变任务难度,以维持用户的最佳情感状态。但这只有在包含原始情感数据时才有效。需要从“情绪识别”向“情感识别”的根本性转变。依赖“合成情绪”——人类有意识做出的面部表情或语音语调——被认为是危险的,因为这些只是沟通输出,常常与人实际感受脱节。
最重要的是,建议接受情感处理、感觉和情绪本质上是三种不同且独立的信息流。如果内部感觉与外部情绪不匹配,AI可识别“情感失调”,这是心理健康、领导力和高风险决策的关键指标。AI模型必须学会将感觉、情绪和原始情感处理视为三个独立的数据流。
9. 综合与结论
这篇理论论文为情感计算领域,特别是情绪识别,提出了一个潜在有用的范式转变。通过严格区分情感处理、感觉和情绪这三个概念,为解决困扰AI领域数十年的概念混乱提供了一个潜在的解决方案。其对AI的效用远远超出了简单的词汇修正。其最主要的论点根植于信号与来源的功能性分离,这允许通过识别所展示的表达与所感受的状态之间的差异来检测不一致场景,这是欺骗检测和社会智能的关键要求。另一个重要方面是通过绕过自我报告和语言的偏见来获取大脑“原始”评估数据,从而减轻认知污染。为区分情绪的公开展示与感觉的私人体验提供科学基础,对于建立稳健的隐私和监管框架至关重要,这应能带来伦理上的明晰。最后,提供客观的生理标记可以作为训练AI更可靠的“真实标签”。
随着AI更深地融入我们的社会与职业生活,理解和尊重人类情感的生物学现实的能力将至关重要。瓦拉模型为生成不仅在技术上先进,而且具有人类意识、能够驾驭我们向世界展示的与大脑实际认知之间的复杂“诊断鸿沟”的AI模型,提供了神经生物学蓝图。通过将AI建立在大脑层级和进化逻辑的基础上,我们可以朝着更准确、更符合伦理、并最终对人类更有帮助的情感计算方向迈进。