联邦学习(FL)(Seo, Kim, Kim, & Han (2024); Tang (2024))允许多个客户端在分布式数据上协作训练模型,同时确保数据保持本地存储并私密访问(You, Guo, Yuen, Chen, Zhang, & Poor (2025))。与传统分布式优化相比,FL在隐私保护和通信效率方面具有明显优势,使其非常适合从敏感数据中提取知识(Zhang, Hong, Deng, Mahdavi, & Zhou (2023); Gao, Zhang, Guo, Zhang, Xiang, Qiu, Wen, & Liu (2023); Li, Zhu, Liu, Tang, & Ren (2024))。因此,FL已广泛应用于智能家居、金融服务和医疗保健等数据敏感领域(Kashyap, Geenjaar, Bey, Dhindsa, Glomb, Plis, Keilholz, & Ritter (2025); Moorthy (2023); Wu, Chen, Wen, Xu, Zhang, & Zhu (2024); Xue, Yan, Tang, Yu, Luo, Cai, Nie, Wu, Gu, & Wang (2024))。然而,当FL扩展到大量客户端时,协调过程的中央服务器面临重大挑战,包括通信瓶颈和高延迟,需要有效的客户端选择机制(Chen, Zhou, Zhang, Sun, & Poor (2024); Trindade, da Fonseca (2024))。
有效的客户端选择对于缓解这些问题至关重要,可以防止落后者降低性能,并确保模型准确性(You, Liu, Wang, Zuo, Chang, & Yuen (2023); Hu, Lu, Han, Cao, Liu, & Fu (2025); Cai, Zhao, Liu, Fu, Li, & Yu (2025))。由于FL数据本身的系统异质性(非独立同分布,Non-IID)(Wang, Kaplan, Niu, & Li (2020),这项任务的复杂性进一步增加。此外,在车辆网络等动态环境中,不同的通信能力和间歇性连接引入了时空动态,阻碍了稳定更新(Wang, Chen, Li, Liao, Jin, & Li (2023); Luo, Xiao, Wang, Huang, & Tassiulas (2022))。客户端参与的异步性质进一步加剧了这些问题,导致数据丰富度和更新滞后性的差异,从而可能导致聚合效率低下和模型过拟合(Zhang, Liu, Lin, Wu, Zhou, Jiang, & Ji (2023); Sun, Sun, Pan, Fu, & Guo (2025))。
在这种异构和动态的环境中,选择最优的客户端子集面临两个基本挑战,现有方法未能充分解决。首先,客户端价值评估模型存在系统性偏差。当前方法,从随机抽样(Liang, Lin, Fu, Zhu, & Li (2022); Liang, Zhang, Qu, & Wang (2025)到基本的真理发现(TD)策略(Xu, Jia, Zhu, Zhang, Jin, & Sharif (2022); Li, Liu, Ling, Du, & Ren (2025)),难以准确估计客户端贡献的质量。它们通常将客户端上传中的错误视为一个整体,未能捕捉其复杂的来源。实际上,这些错误源于多种重叠因素:数据质量或计算限制导致的内在随机错误,以及网络抖动或位置变化等环境因素引起的外在不确定性(You et al. (2023); Xu et al. (2022); Wang, Jia, Zhang, Hu, Ren, Sun, Wen, & Zhang (2024); Vono, Plassier, Durmus, Dieuleveut, & Moulines (2022))。这种相互作用从根本上削弱了现有估计模型的可靠性。
其次,选择策略过度依赖僵化的启发式规则,而没有理论上的最优性保证。常见的贪婪算法根据单一质量指标对客户端进行排名并淘汰固定比例的客户端(Ma, Xu, Xu, Jiang, Huang, & Huang (2021); Lin, Gao, Du, Niyato, Kang, & Liu (2024))。这些方法缺乏根据不同训练阶段调整选择规模的灵活性。更严重的是,它们僵化的淘汰标准可能导致“任务覆盖不完整”。具体来说,拥有罕见但关键数据的客户端(即“长尾”客户端)可能因整体质量排名较低而被集体排除,从而导致不可逆的信息丢失,并使全局模型变得次优(Hu et al. (2025); Manzoor, Khan, Khan, Ayaz, Flynn, Imran, & Zoha (2022))。这些启发式方法并未针对与全局模型性能相关的明确目标函数进行优化,因此其结果本质上是不够理想的。
为了解决这两个核心挑战,我们提出了FedTD-HMM(如图1所示),这是一个将真理发现(TD)(Xu et al. (2022)与隐马尔可夫模型(HMM)(Hu et al. (2025))相结合的自适应客户端选择框架。我们的框架采用两阶段优化方法。在第一阶段,为了对抗有偏评估,我们基于真理发现理论构建了一个质量评估机制。它不是将客户端错误视为一个整体,而是迭代估计客户端可靠性权重和理想的“真实”聚合更新。通过使用改进的余弦相似度来衡量每个客户端更新与这一不断发展的共识之间的方向一致性,该机制能够稳健地识别出真正的贡献。通过整合多维指标(例如,准确性、网络质量)(You et al. (2023); Hu et al. (2025)来产生每个客户端的全面可靠的质量分数。
在第二阶段,为了取代次优的启发式方法,我们引入了一种基于模型的动态方法,使用HMM。这直接解决了适应性和任务覆盖不完整的问题。我们将FL训练过程建模为一个在隐藏状态之间转换的随机系统(Hu et al. (2025)(探索、稳定收敛、微调和振荡恢复)。利用实时训练动态作为观察结果,Viterbi算法(Forney (2005)推断当前训练阶段。这种推理使系统能够调整其选择策略——例如,在早期探索期间优先考虑基础设施可靠性,以建立稳定的训练基线。这将客户端选择从一个静态程序转变为一个与阶段依赖的目标相一致的自适应优化过程,提供了理论上的可解释性并确保了鲁棒性。
总之,本工作的主要贡献如下:
我们提出了FedTD-HMM,这是一个自适应客户端选择框架,它将真理发现与隐马尔可夫模型相结合,以解决异构FL环境中的客户端质量评估和动态策略调整问题。我们设计了一种基于真理发现的质量评估机制,通过迭代优化同时估计客户端可靠性权重和真实聚合更新。该机制使用余弦相似度来衡量更新一致性,并结合多维指标(准确性、网络质量、计算效率)来生成全面的客户端重要性分数。我们将FL训练过程建模为一个随机状态转换系统,并使用Viterbi算法进行阶段推理。这使得我们的框架能够根据当前的训练动态动态调整选择策略,防止过早排除拥有罕见但关键数据的客户端。在涵盖图像、音频和文本模态的六个数据集(MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100、语音命令和莎士比亚)上的广泛实验表明,FedTD-HMM的准确率提高了0.49%-3.11%,同时将通信轮次减少了13.5%-31.4%,验证了其在具有挑战性的联邦场景中的有效性。