人工智能(AI)已成为全球治理辩论的核心焦点,但其发展仍然不平衡。最新数据显示,72%的私人AI投资和91%的基金会模型集中在三个地区:美国、中国和欧盟[1],而拉丁美洲在全球AI投资中的占比不到0.6%[2]。AI训练的计算基础设施也存在更明显的差异:78%的高性能计算能力用于训练大型语言模型(LLMs),这些能力集中在北美、东亚和西欧[3]。此外,用于训练LLMs的数据集中有68%来自英语国家,尽管全球南部的人口占世界人口的85%[4]。
2024年政府AI准备指数显示,22个拉丁美洲国家中没有一个排名在前50位。该地区排名最高的巴西,其实施能力从第40位下降到了第47位。此外,该地区仍有17个国家缺乏正式的国家AI战略[5]。例如,在巴西,89%使用AI的组织完全依赖外国平台,本地审计或定制的能力有限[6],这凸显了外部提供商的主导地位以及由此产生的技术依赖性。
这种不平等不仅仅是数量上的;它也是认识论和制度上的。这里的“认识论”指的是议程设置和验证方面的不对称性:谁来决定什么算作相关的机器学习(ML)任务,如何将现象编码为变量和标签,以及哪些基准定义了可接受的性能和危害[4]、[7]。由于这些选择通过文档标准和工具栈传播,它们可能会限制本地行为者对目标提出质疑并根据具体情况调整系统的能力——即使数据集仍保留在本地[8]。从这个意义上说,问题不仅限于数据提取;它还涉及到谁控制将数据转化为模型和决策工具的流程[9]、[10]。
为了解决集中式数据治理的问题以及社会技术系统中潜在的制度不对称性问题,技术文献提出了联邦学习(FL)作为一种框架,它能够在分布式实体之间实现去中心化的模型训练,同时限制本地持有的个人数据的交换[8]、[11]、[12]、[13]。通过FL,可以在不集中数据的情况下训练ML模型:每个设备或机构都对模型进行本地更新,然后这些更新被汇总。
上述架构通常被认为与数据保护框架(如通用数据保护条例(GDPR)(欧盟法规2016/679)和巴西通用数据保护法(LGPD)兼容,同时能够增强本地控制并减轻某些隐私风险。然而,关于社会技术系统中去中心化的更广泛研究提醒我们,自主性、问责性和民主控制等价值并不内在地存在于架构中:去中心化可能会改变权力的行使方式,但并不使其变得可争议,甚至可能使责任更难以确定[14]。与此批评一致,最近关于去中心化AI和FL的研究也警告说,计算的去中心化并不必然导致权力的去中心化[15]、[16]。
巴西的《国家人工智能战略》(EBIA)阐述了高层次的原则(如隐私和透明度)[17],但作为一种非约束性战略,它并未为AI系统建立可执行的义务,特别是对于去中心化训练和跨机构验证。对于具有约束力的规定,我们的法规分析主要参考了LGPD,并在相关情况下考虑了2023年第2338号法案,该法案正在努力为巴西的AI系统指定治理义务。这种区分很重要,因为FL提出的核心问题——多个参与者之间的责任分配、可审计的证据义务以及有意义的参与条件——无法仅通过战略原则来解决。EBIA主要依赖私营部门合作伙伴关系,而没有明确的问责机制或利益共享要求[18],这可能会削弱解决本地社会技术特性的AI生态系统的发展[19]。
本文探讨了FL在巴西的潜力和局限性,将巴西视为“全球南方”的一个案例。通过结合科学和技术研究(STS)、法律和计算机工程,我们将FL视为一种社会技术基础设施:技术设计选择和制度安排共同决定了实践中可以治理、验证和实施的内容[8]、[21]、[22]、[23]、[24]。为了明确和评估这一论点的规范性维度,我们在整个手稿中应用了三个基准:可执行的审计性(例如,学习过程的可追溯性和可验证的文档记录)[8]、[21]、[25]、[26],参与式治理(即分配决策权并允许超出技术协调者范围的争议[22]、[27],以及公平的计算基础设施访问(以便参与训练和评估不会系统性地偏向资源更丰富的参与者)[3]、[6]、[9]、[15]。
这项研究采用定性、跨学科的方法,具有理论概念导向,综合了STS、数据治理法和去中心化AI系统工程的技术规范方法。方法上,我们的分析通过三个轴展开:(i)技术概念映射FL,考察其架构组件和实施前景;(ii)对政策文件(特别是EBIA)的批判性分析;(iii)对新兴规范框架(如AF2)[10]、[25]、[28]的评估,评估它们在巴西监管和制度背景下的部署责任潜力和局限性。
我们的核心论点是,当FL的技术去中心化与可验证的治理安排相结合时,它可以具有政治和制度意义。我们探讨在哪些制度、监管和基础设施条件下,FL可以在巴西满足这三个基准(可执行的审计性、参与式治理和公平的计算基础设施访问),以及它在实践中更有可能复制现有的不对称性和依赖关系,而不是促进AI发展和治理的实质性不同路径。
手稿按照上述三个基准逐步展开论证。第2节介绍了FL的核心架构,并指出了在联邦管道中治理和不透明度可能重新集中的地方。第3节将AI视为一种社会技术基础设施,并通过基础设施和制度不对称性将巴西置于实证案例中。第4节定义了联邦环境中的可审计证据,并引入了“可问责的联邦事实表”(AF2)作为一种文档机制,使得验证声明可以在技术协调者之外进行检查。第5节探讨了联邦学习和巴西的AI战略(EBIA):去中心化系统中的技术差距和治理挑战;第6节分析了巴西的背景:监管差距、制度紧张关系以及联邦学习采用的路径,然后根据这些要求评估EBIA和巴西的监管-制度背景,指出了FL在实践中能否满足这些基准的条件。最后,第7节总结了研究发现,指出FL更有可能复制而不是缓解现有的依赖关系。