《The Lancet Regional Health - Western Pacific》:Beyond the debate: toward pragmatic evaluation of Australia's social media age restrictions
编辑推荐:
这篇视角综述认为,对澳大利亚实施的、禁止16岁以下青少年使用主要社交媒体的政策,需超越“利弊”辩论,转向建立严格的科学评估框架。评估应涵盖心理健康、数字素养、睡眠、学业等多维度次级效应,并结合历史先例(如中韩的“防沉迷”与“关机法”),指出单一年龄限制效果有限,需辅以算法透明度、平台“注意义务”(duty of care)、基于安全设计(safety-by-design)等监管措施,才能应对行业规避,实现长期效果。
导言
2025年12月,澳大利亚实施了一项全球首创的社交媒体年龄限制政策,旨在禁止16岁以下的个人在主要社交媒体平台(包括Facebook, Instagram, Snapchat, TikTok, X和YouTube)上持有账户。平台现被法律要求采用年龄验证系统,系统性违规者将面临高达4950万澳元的罚款。围绕此政策,公众与学术界分化为支持与反对两派:支持者援引了应对青少年心理健康流行病学趋势的必要性;反对者则对执行挑战、隐私问题以及其他地区技术限制措施失效的先例提出质疑。然而,一个更务实的关切——如何评估政策的成本与效益——却未获足够重视。鉴于禁令已生效,当下正是建立严格、独立的科学评估机制,以衡量其目标达成效果的关键时刻。
政策背景
限制青少年接触社交媒体的理由,基于多条趋同的流行病学证据,这些证据表明澳大利亚青少年的心理健康状况恶化——这一趋势在COVID-19大流行期间加速。抑郁与焦虑率显著上升,尤其在青少年女性群体中。与此同时,社交媒体在澳大利亚年轻人中变得更为普及,而包含自伤行为和自杀相关内容在内的潜在有害内容也日益常见。The Lancet Psychiatry杂志的青年心理健康委员会近期将社交媒体认定为青少年精神疾患的促成因素。这些观察加剧了公众健康领域对保护未成年用户免受有害内容侵害的担忧。澳大利亚总理安东尼·阿尔巴尼斯在为此政策辩护时表示“社交媒体正在对我们的孩子造成社会伤害”,通讯部长安妮卡·威尔斯则称“社交媒体有其存在空间,但针对儿童的掠夺性算法没有”。
虽然社交媒体使用与青少年伤害之间的因果证据仍混杂且不确定,但存在几种可能的机制。这些机制包括加剧负面社会比较的算法、由不断更新的信息流和“无限滚动”导致的睡眠中断,以及为最大化用户参与而非福祉而设计的内容曝光。此外,神经生物学模型提出,与其他行为成瘾类似,过度使用社交媒体涉及纹状体奖赏回路失调,其特征是从目标导向处理转变为习惯性处理,可能导致一个强化循环:使用社交媒体来调节其自身产生的负面情绪。
人们也日益认识到,随着信息生态系统的演变,社交媒体的性质已经改变。具体而言,社交媒体如今由大型语言模型(LLM)、算法策划内容和人工智能(AI)生成材料的融合所主导。例如,“死亡互联网理论”指出,代表真实人类表达的在线内容比例,正越来越多地被AI驱动的内容和旨在广泛传播(即“病毒式传播”)的内容所取代。这对于在一个日益不可靠的信息环境中摸索前行的青少年而言,是传统媒体素养干预无法完全应对的挑战。
尽管有上述担忧,反对禁令的声音也提出了若干实践与伦理挑战。监管先例(如中国和韩国的经验)表明,基于年龄的禁令可以通过虚拟专用网络(VPN)等技术手段轻易规避。来自博彩、酒精和烟草行业的历史先例则显示,这些行业同样可能通过游说等手段向立法者施压。在伦理方面,对数据隐私和年龄验证合规所需监控基础设施存在合理担忧。此外,社交媒体为边缘化和常感社会孤立的群体(如性别与性向多元群体及其他社会边缘化青年——他们更容易出现心理健康问题且更不愿寻求帮助)提供了一些益处,使他们能够接触线下可能无法获得的、具肯定性的社区。
总体而言,该政策还必须在数字环境中儿童权利的大背景下被审视。联合国人权事务高级专员办事处(OHCHR)强调儿童在信息获取和表达自由方面的权利,以及免受伤害的权利。澳大利亚人权委员会强调需要在保护措施与儿童的发展需求和参与权之间取得平衡,指出年龄限制可能无意中限制年轻人参与公民生活、获取健康信息或加入在线学习社区的能力。同时,联合国儿童基金会(UNICEF)的立场是,仅靠年龄限制无法保证儿童在线安全。因此,任何评估有效性的框架,也必须考虑该政策是否过度限制了这些基本权利。
历史先例:来自可比行业的案例
尽管澳大利亚的社交媒体年龄限制政策是独特的,但其他地区或其他行业实施的类似年龄限制政策可提供经验或观察。2019年,中国实施了“预防未成年人网络游戏成瘾”规定,限制18岁以下者访问网络游戏平台,工作日每天1.5小时,节假日3小时。2021年进一步收紧,将未成年人限制为每周仅3小时(仅限周五、周六、周日和节假日的晚8点至9点,每天1小时)。类似地,在2011年至2021年间,韩国实施了“关机法”,禁止16岁以下者在午夜至凌晨6点间访问在线游戏。来自中国和韩国政策的一个主要观察是,两者都未实现完全合规。两国的限制都通过VPN、账号共享和借用凭证被广泛规避。两个司法管辖区在减少过度参与方面都显示出复杂效果;虽然中国的重度使用者显示出使用量减少较少,这表明政策可能未能覆盖最需要帮助的群体。尽管如此,一个教训似乎是,即使是不完美的合规也可能对普通用户产生有意义的效果,不过,正如上文所指,这必须与巨大的执法成本相权衡。
除了访问限制,中国和韩国也试图规范平台设计和内容。中国通过对游戏公司实施内容过滤和算法审计的指令,行使直接政府控制。韩国则要求发行商实施家长控制系统和年龄验证机制。这些监管框架的目的是解决根本原因(即算法设计和有害内容),而非仅限访问。然而,在这两种情况下都发生了监管俘获,两种方法均未取得一致成功。
总体而言,这些政策的教训应当是:部分合规是可以实现的,而伴随而来的针对算法和内容设计的监管方法是可行的。然而,也存在实施障碍——两个司法管辖区都未实现长期执法所需的政治可持续性。中国的限制因行业游说和对经济影响的担忧而被逐渐削弱。韩国的“关机法”面临法律挑战,并最终于2021年被废除,部分原因是执法困难和行业压力。其他被引述的批评涉及对监控基础设施需求和潜在越权的担忧,呼应了当前澳大利亚引发的隐私关切。在更近期的英国案例中——由英国通信办公室(Ofcom)针对美国公司4Chan的行动——位于外国区域的运营商也可能直接拒绝遵守国家法律,并在面临法律后果的情况下继续运营其服务。似乎平台向海外迁移是不可避免的,新运营商可能有机可乘,超越合规运营商。
关键的教训是,仅靠年龄限制是不够的(尽管这并不意味着它们不应被实施)。中国和韩国的经验表明,有效性需要:伴随而来的对平台设计和算法透明度的监管要求;防止监管套利(即平台转移到未受监管的司法管辖区)的国际协调;投资于追踪合规与结果的测量基础设施;以及抵抗行业压力并保护可能受负面影响的成年用户权利的持续政治承诺。与此观点一致,德国国家科学院利奥波第那(Leopoldina)建议采取全面方法,解决平台设计、教育支持和政府监管,而非仅靠年龄限制。挪威政府的屏幕使用委员会同样建议采取多方面方法,包括家长指导、数字素养、无屏幕区和平台设计修改,而非仅靠年龄限制。与此同时,澳大利亚的方法仅规定了年龄限制,尚未阐明伴随的监管要求或国际协调战略。
此外,任何评估框架都必须完全独立于社交媒体行业及其商业利益。存在旨在保护年轻人免受有害产品(如赌博、酒精、烟草)伤害的政策的漫长历史,同样也存在相关行业通过规避策略和游说等手段来绕过此类立法的漫长决心历史。例如,博彩、酒精和烟草行业通过定向营销、吸引人的包装以及赞助协议,反复适应年龄限制。酒精和博彩行业还试图利用社交媒体和网红营销,以传统广告限制未曾预料的方式触及年轻受众。有证据表明,这些行业善于识别、削弱和规避监管障碍(例如通过游说、选择性采用有利证据、以及推广自我监管以取代政府强加的限制);所有这些都会逐步削弱政策。因此,任何科学评估都必须完全独立于相关行业的商业利益。尽管在某些情况下,行业赞助与合作可能有助于研究人员(例如获取消费者数据以推进公共卫生),但接受这些行业的资助对透明度构成重大风险,应被慎重考虑。
评估政策有效性的关注领域
鉴于上述背景和历史先例,一个关键的政策问题仍然是:社交媒体年龄限制能否实现其既定目标?一个全面的评估框架应涵盖心理、生理和社会结果,并从更可能显示早期效应的近端测量开始。近端结果应包括实际的社交媒体使用模式(频率、时长、访问的平台)、规避行为(VPN使用、账号共享),以及如错失恐惧症(FOMO)、社会联系感和日常情绪等即时心理状态。这些近端测量尤其有价值,因为它们更可能在下游健康效应出现之前,就显示出可直接归因于政策的早期、可检测效应。
鉴于青少年心理健康受多重因素影响(如社会经济条件、教育压力、家庭动态),一个主要挑战仍然是如何最好地隔离政策效应并建立因果关系。另一个根本性挑战是建立反事实(即如果没有限制会发生什么)。为解决这些挑战,研究人员应采用自然实验,利用中学环境中已有的纵向队列研究,这些研究已收集了关于心理健康、社交媒体参与、同伴关系、手机使用、游戏行为及相关社会心理变量的基线数据。至关重要的是,纳入来自未实施类似干预的可比司法管辖区(如新西兰、加拿大、英国、美国——这些国家拥有类似的数字基础设施、青年社交媒体使用率及可比的心理健康报告水平)的同期心理健康数据,以提供比较组来近似反事实,并将政策效应与更广泛的趋势分离。在可能的情况下,这些研究应使用相同的测量工具建立可直接比较的队列,以最大化跨国比较的有效性。
按人口统计特征(年龄、性别、社会经济地位、地理位置)进行分层,可识别差异化效应,而对离散心理健康领域(抑郁症状、焦虑、压力、蓄意自伤、自杀倾向)的标准化测量将捕捉异质性效应。关键的是,研究设计必须评估实际合规行为,以比较用户、非用户和规避者的经历与结果。该限制也为检验社交媒体与结果之间的连接机制创造了机会。与其将社交媒体视为一个整体,研究应考察哪些具体特征(算法推送、深夜使用、关注外表的内容)最具危害性。
除了心理健康,评估还应考察与减少屏幕时间相关的其他心理和健康结果。社交媒体使用与睡眠碎片化和昼夜节律紊乱相关。因此,可通过自我报告和客观的睡眠指标量化可测量的改善(或缺乏改善)。这些指标还应在一个青年子样本中使用客观测量(如多导睡眠图评估)进行独立验证。作为第二和第三级效应,例如,潜在的睡眠改善应导致更好的认知表现,包括课堂注意力改善(如教师报告)、注意力问题减少以及基于成绩的学业表现提升。重要的是,这些指标也可能减少报告偏差,并作为主观福祉测量的独立效度检验。
其他关注领域可能包括青少年在干预后是否表现出识别合成内容与真实内容的能力提升、错误信念流行率降低,以及对社交现实的感知更准确。衡量这些方面是一个重大挑战,但可以通过以下验证性评估实现:对AI生成内容的认识;识别合成内容的能力;通过调查对已知虚假声明的熟悉度来衡量错误信息信念;以及社交比较焦虑和与外表相关的困扰。这种方法的一个优点是,它直接解决了底层的信
息生态系统问题,而不仅仅是曝光和参与度指标。
认识到年龄限制政策旨在促进更多地参与非数字媒体活动,纵向追踪应测量结构化活动的参与度、面对面社交接触的频率、替代性屏幕参与的规律(如游戏、流媒体、替代平台)。至关重要的是,透明评估还必须评估潜在的不良后果。这些后果包括对依赖社交媒体获取支持的弱势群体(如LGBTQ+青年、偏远地区青年)造成的困难与伤害、规避行为带来的风险(如转移到监管较少的平台、VPN安全漏洞),以及年龄验证可能带来的任何意外影响(如对隐私和数字权利的影响、常态化的监控)。鉴于存在多重潜在结果和政治压力,评估研究的预注册和开放获取数据共享应成为默认做法。
伴随政策的监管方法
尽管社交媒体年龄限制旨在减少接触有害社交媒体内容的机会,但该政策对更广泛的互联网底层结构性激励几乎未作处理。商业平台是为参与度而非福祉而优化的。若无伴随的监管方法,被转移的用户可能只是迁移到具有类似设计特征但监管较少的平台。因此,几种互补的监管策略值得考虑。
首先,算法透明度与修改。与其仅仅依赖访问限制,司法管辖区可以强制要求算法披露(至少对监管机构),并禁止将最大化参与度的算法作为年轻用户账户的默认设置。监管机构应考虑强制要求按时间顺序排列的信息流,这种信息流在用户看完可用内容时有自然的终点,从而减少算法信息流在晚间为最大化参与度而设计的习惯性查看行为。额外措施可能包括降低推荐强度和限制平台在线时长指标,正如在线赌博领域监管机构为促进更安全的赌博实践已实施和强制执行的那样。然而,虽然这些方法比单纯的年龄验证更难规避,但此类措施需要平台的支持。
第二个监管步骤可能涉及建立一个正式的“注意义务”(duty of care)框架,增加社交媒体公司对其平台可证明相关伤害的责任,而目前平台对此类伤害面临的财务后果微乎其微。实施注意义务(即,使平台对其推荐算法相关的可证明伤害承担责任,类似于产品责任框架),将从根本上改变这些公司内部的风险计算。这种方法与新兴的欧洲监管和澳大利亚消费者法律框架有某些相似之处。
最后,监管机构应考虑限制平台对年轻用户进行画像的程度,并限制基于个人化的广告——这实际上动摇了使参与度最大化有利可图的商业模式。总的来说,这些方法代表了一种向“安全设计”(safety-by-design)原则的转变——要求平台从一开始就构建优先考虑用户福祉的产品,而不是在伤害出现后增补保护措施。安全设计框架,结合注意义务和激励结构调整,更有可能解决与伤害相关的根本激励结构。
对澳大利亚的启示:下一步是什么?
澳大利亚的实施可以参考可比的历史先例,并考虑到这种一刀切的措施是否是最佳选择,因为还存在其他策略的机会,这些策略涉及对算法设计的监管要求,以及在澳大利亚市场运营的内容管理是否能在不审查内容的情况下产生影响。社交媒体年龄限制政策提供了一个契机,可以确立平台必须实施算法透明度、允许按时间顺序排列的信息流选项,并证明其遵守内容审核标准。所有这些要求将使所有用户受益,而不仅仅是政策针对的对象。至关重要的是,国际协调必不可少。澳大利亚应考虑与其他西方民主国家合作,制定协调一致的监管标准。
监管协调创造了相互的执法激励(即,如果多个重要市场有相同的要求,平台就无法简单地转移到未受监管的司法管辖区)。这种方法通过创造真正的结构性合规激励,有别于单边限制的失败先例。同时,精心设计的纵向评估必须并行推进。与其实施政策后静待改善,澳大利亚应资助队列研究,追踪不同人口亚组的心理健康、参与模式、规避策略和结果。独立的研究证据将有助于确定该政策是代表了真正的进步,还是仅仅转移了伤害,以及政策的成本效益如何。
结论
社交媒体年龄限制政策现已立法。与其继续争论其利弊,当下的关键任务是确保根据其预定目标对其效果进行深思熟虑且严格的评估,并确定策略以提升未来的有效性。其他司法管辖区的经验表明,仅靠年龄限制是不够的——有效性需要伴随的监管措施,以解决算法设计、平台责任和国际协调问题。社交媒体年龄限制为建立更广泛的数字平台标准创造了机会,这可能使所有用户受益。澳大利亚年轻人,特别是那些已经经历社会边缘化的人,理应得到经过严格评估并根据经验证据迭代改进的政策干预。该政策是代表真正的进步,还是仅仅转移了伤害,将取决于彻底的评估以及根据证据出现而调整政策的意愿。