随着计算能力的指数级增长、海量数据集的可用性以及模型架构的完善,智能系统已经从由预定义规则控制的自动化发展为能够理解上下文的高度适应性应用(Y. Liuet al., 2025)。生成式对话人工智能(GCAI)具备类似人类的语言能力,并能通过交互处理复杂任务(M. Song et al., 2026)。与传统信息系统相比,GCAI产品的高昂训练和维护成本使其商业可行性在很大程度上取决于用户的持续使用意图。因此,用户接受度和采用率仅是产品开发的初始阶段;用户的持续使用意图是成功的关键决定因素(Bhattacherjee, 2001)。
GCAI的出现标志着人机交互方式的范式转变。虽然传统的聊天机器人作为由预定义规则控制的确定性工具,在高频低复杂性的场景(如零售、电子商务和金融)中可以通过提供即时响应来降低运营成本(Luo et al., 2019; Pillai et al., 2024),但其核心机制依赖于将预定义规则与现有数据集进行匹配。这种方法在理解用户动态上下文和潜在情感需求方面存在固有局限性(Cheng et al., 2022)。先前的研究表明,在复杂交互中,聊天机器人的机械响应模式可能会损害服务体验。即使暴露了它们的机器身份,也可能引发对话偏见,从而导致较低的信任度和购买意愿降低(Luo et al., 2019)。用户仍然更倾向于选择人工客户服务代表以获得更自然的服务体验(S. W. Song & Shin, 2024)。相比之下,GCAI将人机交互从单向工具使用转变为双向内容创造。同时,它引入了新的用户体验维度,包括由于模型幻觉导致的信息准确性风险、与多模态交互相关的高认知负荷,以及由深度拟人化引发的潜在认知失调(Chen et al., 2023)。这些技术特性的定性差异使用户的评估选择过程变得复杂。
GCAI的商业潜力和技术迭代在很大程度上依赖于用户的持续参与(Pham et al., 2024)。然而,现有解释GCAI用户持续使用意图的研究存在理论局限性。首先,传统采用模型在GCAI背景下存在局限性。许多研究应用了技术接受模型(TAM)、技术接受与使用统一理论(UTAUT)和计划行为理论(TPB)等经典框架来研究用户接受度,通常仅关注初始态度形成和采用意图(Chen et al., 2023; Y. Liu et al., 2025)。这些框架往往将技术属性视为功能黑箱,优先考虑下游感知,但很少揭示特定GCAI属性如何与这些认知评估相关联(Ivanov et al., 2024)。GCAI的高智能性可能带来独特的认知负荷和情感投入,使得传统模型无法捕捉这些心理紧张。因此,研究需要超越TAM等方法,采用AI设备使用接受模型(AIDUA),该模型更加强调认知评估过程。
其次,AIDUA模型在其主要评估方面存在不足。尽管AIDUA强调了“动机-情感-行为”的多阶段心理评估路径,但在实证应用中并未系统地指定主要评估目标的范围。现有研究通常基于主观经验随意选择前因变量,缺乏坚实的理论基础(Gursoy et al., 2019)。这种输入端的模糊性限制了模型解释GCAI相对于传统技术的独特吸引力的能力。因此,需要一个能够将用户需求与系统特征相匹配的框架,而不仅仅是积累变量。此外,鉴于GCAI的固有不确定性和风险,用户的持续使用意图依赖于信任作为风险缓冲和认知简化机制(Chakraborty et al., 2024)。这突显了在原始AIDUA模型中情境化和细化情感结果机制的必要性。
基于上述理论空白,本研究结合定性探索和定量验证来回答两个研究问题:(1)用户在实际交互中如何描述GCAI的关键功能属性,以及如何将这些属性系统地整合为可比较的需求维度?(2)这些属性如何通过用户对性能的评估影响信任的形成,信任又如何进一步与持续使用意图相关联?
本研究有四个主要贡献。首先,通过采用混合方法并利用使用与满足(U&G)理论指导文本挖掘,本研究将非结构化用户反馈转化为可复制的功能属性,从而明确了技术刺激输入的规范。其次,研究结果揭示了类人同情心的双重效应:虽然类人同情心提高了感知性能,但同时也通过引发情感解码的需求增加了努力期望。第三,本研究将信任重新定义为缓冲算法不确定性的关键机制,揭示了GCAI持续使用意图是一个培养认知依赖性和将认知负担委托给系统的过程。最后,本研究认为技术属性的感知收益具有情境依赖性,强调了外部访问障碍的潜在限制。