类增量学习(Class-Incremental Learning, CIL)是由Rebuffi等人(2017年)和Zhang等人(2020年)提出的一种学习范式,其中模型通过多个阶段逐步进行训练,每个阶段引入一组新的、不相交的类别。这种设置因其实际应用价值而受到越来越多的关注,尤其是在模型需要不断适应新类别而无需从头开始重新训练的情况下。CIL减少了重复访问整个数据集的需求,使得学习更加高效和可持续。它特别适用于数据和标签以时间或空间分布方式出现的现实世界环境。从概念上讲,CIL类似于人类的学习过程,即个体在保留先前所学知识的同时逐步获取新知识。
尽管CIL具有许多优势,但它面临两个根本性挑战:灾难性遗忘(Belouadah等人,2021年)和稳定性-可塑性困境(Zhuang等人,2024年)。灾难性遗忘指的是模型在学习新任务后迅速丢失先前获得的知识,导致性能显著下降。稳定性-可塑性困境则是指在有效适应新信息的同时保持先前知识的难度。
现有的类增量学习方法可以根据其主要缓解灾难性遗忘的机制进行分类。大致上,这些方法可以分为三类:基于偏差校正的方法、基于正则化的方法和基于重放的方法。基于偏差校正的方法主要通过输出校准或分类器重新平衡来减轻由于增量阶段间类别不平衡造成的任务新鲜度偏差。基于正则化的方法限制了对过去任务中重要参数或激活值的更新,从而优先考虑稳定性。然而,这些限制不可避免地限制了学习新任务的灵活性,降低了模型的可塑性。基于重放的方法会存储一部分过去样本(示例),并在训练过程中重新使用这些样本以强化先前知识。虽然有效,但它们引入了额外的内存开销和潜在的数据隐私风险。
最近,分析型类增量学习(Analytic Class-Incremental Learning, ACIL)作为一种有前景的替代方案被提出。ACIL将CIL重新构建为封闭形式的递归更新,无需存储历史数据即可解决灾难性遗忘问题。具体来说,ACIL首先使用反向传播(Backpropagation, BP)在基础阶段训练一个主干网络,然后通过递归范式逐阶段逐步训练线性分类器。这种递归范式利用了Guo等人(2001年)和Zhuang等人(2021年)提出的分析学习方法,这些方法使用封闭形式解训练网络,并具有权重不变性。这意味着每个阶段递归训练的权重与同时使用全部数据训练的权重相同。然而,现有的分析方法仍然存在过拟合问题,并且仍然受到稳定性-可塑性困境的制约,主要是因为它们仅依赖于静态的线性投影和映射。
在这项工作中,我们提出了局部自适应补偿学习(Locally Adaptive Compensation Learning, LACL),它是分析型CIL的扩展,增加了邻域感知的特征细化作为额外的补偿机制。通过利用每个阶段内的局部特征结构,LACL增强了表示的鲁棒性,减轻了过拟合现象,并通过同时提高稳定性和可塑性来解决稳定性-可塑性困境。
本工作的主要贡献如下:
1. 我们提出了LACL,这是一种结合了局部自适应补偿的分析型CIL框架。
2. 引入了基于邻域的补偿机制来解决分析学习中的稳定性-可塑性困境。
3. 通过结合局部结构信息,缓解了封闭形式分析方法的过拟合问题。
4. 在CIFAR-100、ImageNet-100和ImageNet-Full数据集上的实验表明,LACL在无样本方法中实现了最先进的性能。