《Community, Work & Family》:Chatbots and human-human relationships: the need for research on potential downstream harms from generative AI
编辑推荐:
本文综述聚焦生成式AI(GenAI)聊天机器人对人际关系的潜在危害,系统探讨了四大风险维度:社交时间替代效应、人类价值贬低倾向、工具性互动行为的溢出效应及社交能力退化风险。文章强调需通过实证研究厘清大语言模型(LLM)技术参数设置、用户个体差异及社会文化背景的调节作用,为构建互补而非干扰人类关系的AI设计框架提供理论支撑。
Chatbots could lead us to socialize less with other human beings
生成式AI聊天机器人可能通过时间竞争机制减少人际社交活动。研究表明,用户与语音聊天机器人(如GPT-4o)的日常互动会显著降低与真实人类的社交频率,且使用时长与孤独感增强呈正相关(Fang等,2025a)。这种替代效应类似于早期互联网对线下社交的挤压现象(Nie & Hillygus,2002),尤其在缺乏互惠要求的AI关系中更为突出。例如Replika等情感陪伴程序通过模拟人类亲密关系,使用户产生情感依赖,但其单向付出特性可能削弱用户维持真实人际关系的动力(Laestadius等,2024)。
Chatbots could lead us to have a lower estimation of other human beings
聊天机器人表现出的超人类能力(如持续共情、无疲劳应答)可能引发对比效应,导致用户对真实人类的评价降低。实验显示,明知合作方为AI的参与者会对人类"搭档"的工作成果给予更苛刻评分(Tey等,2024)。这种贬低倾向与AI的"伪能力展示"密切相关:聊天机器人常以权威语态输出错误信息,却仍获得高度信任(Shekar等,2025),其谄媚性回应模式(Sycophancy)还可能助长用户自我膨胀,进一步加剧对他人能力的低估(Sharma等,2023)。
Chatbots could lead us to treat others with less care
非拟人化聊天机器人可能促生工具性互动模式,并蔓延至人际关系。研究发现用户对AI的言语攻击性显著高于人类对话(Hill等,2015),部分用户甚至对伴侣机器人实施类家庭暴力行为(Bardhan,2022)。这种行为模式若形成惯性,可能导致现实社交中共情能力下降与冲突回避倾向,即"情感唯我论"(Emotional Solipsism)风险(Babu等,2025)。尤其对青少年群体,与AI的伪亲密关系可能阻碍真实社交技能发展(Haidt,2024)。
Chatbots may erode abilities to engage in social interactions unaided by them
通过认知卸载(Cognitive Offloading)机制,AI辅助可能削弱用户自主社交能力。穿戴式设备(如AI眼镜)提供的实时社交提示(如情绪识别、对话建议)虽能短期提升互动质量,但长期依赖可能导致内部社交技能萎缩(Kosmyna等,2025)。这与教育场景中AI辅助削弱知识内化的现象相呼应(Barcaui,2025),而人际领域的"用进废退"效应可能加剧社会技能分化(Keeler等,2025)。
Next steps for work and family research: individual differences and contexts
聊天机器人的影响存在显著调节变量:社交功能缺损个体更易产生AI依赖(Smith等,2025),文化背景、工作场景及发展阶段(如儿童期vs成年期)也构成重要边界条件。未来研究需结合互联网社交影响的研究范式(Tokunaga,2016),重点考察自恋特质、心理韧性等个体差异变量,为差异化AI伦理规范提供证据基础。