人工智能 vs. 人类 vs. 混合体:金融咨询中信任构建与建议采纳的二元交互比较研究

《Acta Psychologica》:Can you smell what AI is advising? Human, machine, or both: A comparative experimental study on financial advice

【字体: 时间:2026年02月26日 来源:Acta Psychologica 2.7

编辑推荐:

  随着AI大语言模型在金融决策中日益深入,一个核心问题浮出水面:客户在寻求财务规划建议时,更应相信谁?是经验丰富的人类顾问、基于海量数据与算法的大模型,还是人机协作的混合模式?本文通过一项涉及93名参与者的准实验研究,客观测量了接受不同类型建议后的长期投资组合表现。研究发现,尽管各组整体信任水平无显著差异,但咨询纯AI或混合顾问的参与者,其投资成功的概率显著高于仅咨询人类顾问的组。研究揭示了关键的信任构建机制差异:对AI的信任并非瞬间的情感反应,而是通过互动质量、感知能力和积极情绪氛围逐步建立的心理路线图;相反,对人类顾问的信任更多基于声誉等先验因素。结果表明,未来金融咨询的核心并非在“人”与“机”之间二选一,而在于构建一个能融合AI计算精度与人类监督/共情优势的协作框架,其关键在于实现“校准信任”。

  
在个人财务规划领域,我们正站在一个十字路口。一面是经验丰富、能理解复杂情感的人类财务顾问;另一面是新兴的、能够即时分析海量数据、似乎无所不知的人工智能(AI)模型,尤其是像ChatGPT这样的大型语言模型(LLM)。Experian的数据显示,近半数消费者(包括67%的Z世代和62%的千禧一代)已经在使用或计划使用生成式AI进行个人理财。伦敦证券交易所集团也报告称,超过80%的投资者欢迎AI支持他们的投资组合管理。然而,一个挥之不去的问题是:在面对退休储蓄、长期投资等高风险的财务决策时,人们真的会信任并采纳AI的建议吗?或者,人类顾问因其“人情味”而依然不可替代?现有研究对AI在金融咨询中的角色探讨日益增多,但鲜有研究从客户与顾问之间每一次具体的“二元交互”入手,探究这种互动如何塑造信任、影响建议的采纳,并最终决定长期财务规划的成败。这正是《人工智能 vs. 人类 vs. 混合体:金融咨询中信任构建与建议采纳的二元交互比较研究》这篇发表在《Acta Psychologica》上的论文试图回答的问题。研究者们不仅仅想比较哪种建议“更好”,更希望揭示背后复杂的心理机制:信任是如何在人类与机器的对话中诞生的?这种信任又如何转化为实际行动?
为了深入探究这些问题,研究人员设计了一项精巧的准实验。他们招募了93名MBA学生作为参与者,并将其随机分为三组:第一组接受经过培训的人类财务顾问的一对一咨询;第二组与AI顾问(基于ChatGPT)进行对话交互;第三组则体验“人机混合”模式,可以先后向人类和AI顾问咨询。所有参与者都面临一个相同的长期财务规划场景:帮助“Das家庭”在20年内实现1千万卢比的财富目标。研究团队不仅客观测量了各组参与者根据建议调整投资组合后,通过“嵌套蒙特卡洛模拟”计算出的长期成功概率(即实现目标的模拟比例),还通过问卷量表,细致评估了每次咨询后参与者对顾问的信任度、对建议的采纳意愿,以及他们对这次“二元交互”质量的感知——包括互动参与度、感知能力与有效性以及情感氛围三个维度。研究结合社会交换理论和人际相互依赖理论,构建了一个从“咨询类型”到“二元交互”,再到“信任”与“建议采纳”,最终影响“财务结果”的完整模型。数据分析采用了广义线性混合模型(GLMM)、独立样本t检验、卡方检验以及使用PROCESS宏模型6的序列中介分析等多种统计方法,以确保结果的稳健性。
4. 研究结果
财务结果:AI与混合建议更胜一筹,源于更高的采纳率
广义线性混合模型(GLMM)分析显示,接受任何类型的建议后,参与者投资组合的成功率均显著提升。然而,深入分析发现,AI顾问组和混合顾问组带来的成功率提升幅度显著高于纯人类顾问组。具体而言,纯AI组的成功率增益为0.034,混合组为0.037,而纯人类组仅为0.016。这表明,从客观财务结果看,基于AI的建议更为有效。但进一步分析揭示了一个关键细节:在那些采纳了建议的参与者子集中,纯人类组和纯AI组的成功率并无统计学差异。这意味着,人类顾问提供的建议质量本身并不逊色,问题在于其建议被拒绝的比例更高(人类组拒绝率为36.7%,AI组为18.2%)。因此,AI和混合模型在整体财务表现上的优势,很大程度上源于其建议被采纳的可能性更高。
信任与采纳:信任水平无差异,但采纳趋势偏向AI
独立样本t检验显示,参与者对AI顾问和人类顾问的绝对信任水平并无显著差异。这与研究最初的假设(H2a:参与者对人类顾问的信任度会高于AI)不符。然而,在建议采纳率上,观察到了一个边缘显著的差异趋势:AI组的采纳率达到81.8%,高于人类组的63.3%。这表明,尽管信任水平相近,但参与者似乎更倾向于遵循AI给出的建议。这种“言行不一”的现象,引出了关于信任本质的更深层问题。
信任的构建机制:路径清晰度大不同
回归分析为上述现象提供了关键解释。研究发现,“二元交互”的质量(包含互动参与度、感知能力和情感氛围三个维度)能显著解释参与者对顾问的信任,这一关系在所有组中都成立,但在纯AI组和混合组中尤为强烈(决定系数R2分别高达0.562和0.560)。序列中介分析进一步描绘出一条清晰的信任构建路径:积极的互动参与度能提升对顾问能力的感知,而这种感知能力又能营造出积极的情感氛围,三者共同作用,最终导向信任。这条路径在AI和混合组中表现得非常结构化透明
相比之下,在纯人类组中,二元交互质量对信任的解释力虽然也存在,但路径的清晰度和强度(R2=0.430)相对较低。这意味着,参与者对人类顾问的信任可能部分源于交互过程,但也掺杂了更多难以测量的外部因素,如顾问的声誉、个人魅力或社会刻板印象。研究指出,对AI的信任更像是一种“认知信任”,基于对过程和能力的理性评估;而对人类的信任则可能包含更多“情感信任”或基于先验印象的判断。正因如此,当信任建立在清晰、客观的交互过程之上时(如与AI的互动),它似乎能更可靠地转化为实际的采纳行为。
结论与讨论
这项研究得出了几个颠覆直觉却又富有启发性的结论。
首先,研究驳斥了“AI会削弱信任”的普遍担忧。实验数据显示,参与者对AI顾问的信任水平与对人类顾问的信任水平相当。这表明,只要交互过程设计得当,AI同样能建立起与用户之间的可信赖关系。
其次,研究揭示了信任构建机制的根本性差异。对于AI顾问,信任是一条清晰可见的“心理路线图”:它始于高质量的互动(客户感到被理解、问题被有效回应),经由对AI专业能力的感知而加强,最终形成一个支持性的情感氛围。这是一个以过程为基础的信任模型。而对于人类顾问,信任的来源则更为复杂和弥散,可能更多地与顾问的个人特质、声誉等身份属性相关。
第三,正是这种基于过程的信任,使得AI和混合模型的建议获得了更高的采纳率,并最终转化为更优越的财务表现。AI和混合模型通过客观、逻辑清晰的交互,建立了一种更“可靠”的信任,这种信任直接导向行动。而人类顾问虽然也能提供高质量建议,但其信任建立路径的“泄漏”导致建议更易被拒绝。
最后,研究的核心启示指向了人机协作的未来。混合顾问组展示了最佳的财务表现,这暗示着一种理想的协同模式:利用AI提供无偏见、数据驱动的计算精度和优化方案,同时结合人类顾问在提供情感支持、处理模糊情境和进行高阶战略判断方面的独特优势。这种协作不是简单的“谁主导谁”,而是发挥各自的比较优势。
在实践意义上,本研究为金融科技公司和传统金融机构指明了方向:未来的智能投顾系统不应仅仅追求算法的精准度,更应精心设计用户交互界面与对话流程,以促进高质量的“二元交互”。通过强化交互过程中的互动参与感、清晰展示其推理逻辑(可解释性)、并营造支持性的情感氛围,AI系统能够主动地、系统地构建用户的认知信任。这为利用人类反馈强化学习(RLHF) 等技术来优化AI顾问的沟通风格提供了理论依据——可以将用户对交互质量(如感知能力、情感氛围)的反馈作为“奖励信号”,让AI学会以更易建立信任的方式进行交流。
总而言之,这项研究传递了一个强有力的信息:金融咨询的未来不必在“人性”与“智能”之间做出艰难抉择。相反,关键在于构建一种能够融合二者优势的“校准信任”框架。在这个框架下,AI的计算理性与人类的共情商维得以协同,共同为投资者提供既科学、又贴心,既高效、又可信的财务规划服务,最终提升社会的整体金融福祉。
相关新闻
生物通微信公众号
微信
新浪微博

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号