生成式人工智能对青少年心理健康的影响:风险认知与应对策略分析

《The British Journal of Psychiatry》:Increasing use of generative artificial intelligence by teenagers

【字体: 时间:2026年01月28日 来源:The British Journal of Psychiatry 8.7

编辑推荐:

  本研究针对青少年群体中生成式人工智能(GenAI)使用率快速上升但风险意识不足的现状,系统分析了GenAI在心理健康应用中的潜在危害。研究人员通过文献综述指出,GenAI可能产生错误信息、强化偏见,甚至被用于网络欺凌等恶意行为。研究强调需加强青少年对GenAI局限性的认知教育,为制定数字健康干预策略提供理论依据。

  
随着ChatGPT、LLaMA、Gemini等生成式人工智能(GenAI)工具的普及,青少年群体已成为最活跃的使用者之一。2023年英国近80%、2024年美国约70%的青少年使用过GenAI技术,其中53%用于作业辅助,42%用于娱乐消遣。然而,这种技术渗透背后隐藏着严峻挑战:青少年往往过度信赖GenAI的人类化表达方式,却对其可能产生的错误信息(幻觉,hallucinations)、文化偏见及安全风险缺乏足够认知。
在《The British Journal of Psychiatry》最新发表的研究中,研究人员系统梳理了GenAI对青少年心理健康的潜在影响。研究发现,青少年在使用GenAI进行心理健康咨询时存在显著风险。基于大型语言模型(LLM, Large Language Model)的健康应用虽能提供即时回应,但无法建立真实的情感联结,可能错过精神疾病征兆,甚至给出加剧心理危机的建议。更令人担忧的是,GenAI技术可被恶意利用制作深度伪造(deepfake)内容,实施网络欺凌(catfishing)等行为,对青少年造成长期心理创伤。
研究方法
本研究采用系统性文献综述方法,整合了28篇权威文献的证据。重点分析了GenAI技术特性、青少年使用行为调查数据(包括英美两国的大规模统计)、心理健康应用案例研究,以及技术滥用相关报道。通过交叉验证不同来源的信息,构建了完整的风险评估框架。
研究结果
青少年使用GenAI的现状
数据显示超过半数青少年将GenAI用于学业任务,但仅26%的家长知晓此情况。这种"使用-认知差"凸显了监管盲区,青少年在缺乏指导的情况下易过度依赖技术,可能削弱批判性思维发展。
GenAI LLM的恶意使用
深度伪造技术可生成逼真的虚假影像和语音,被用于针对特定个体的网络骚扰。研究表明,这类技术滥用可能引发严重的心理后果,且受害者往往难以辨识伪造内容。
心理健康应用的风险
GenAI健康应用无法替代专业治疗师的共情能力,其跨文化适应性也存在局限。案例显示,当涉及自杀意念等敏感话题时,青少年更倾向人类专家的介入。
局限性分析
研究指出当前存在多项未充分讨论的议题,包括数字鸿沟对技术可及性的影响、GenAI数据隐私保护缺位、行业监管空白等。这些因素都可能加剧技术应用中的风险。
结论与讨论
本研究揭示了GenAI技术普及与青少年心理健康保护之间的紧迫矛盾。一方面,GenAI为教育创新提供了新工具;另一方面,其技术特性与青少年认知特点的错位可能衍生新型风险。研究人员呼吁建立多层次防护体系:在学校教育中纳入数字素养课程,帮助青少年识别技术局限性;在家庭层面加强亲子沟通;在政策层面需加快制定GenAI伦理规范。唯有通过多方协作,才能在技术进步与心理健康保护之间取得平衡,真正发挥GenAI的积极价值。
相关新闻
生物通微信公众号
微信
新浪微博

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号