莫妮卡·米伦齐(Monica Millunzi)|洛伦佐·博尼切利(Lorenzo Bonicelli)|安杰洛·波雷洛(Angelo Porrello)|雅各布·克雷迪(Jacopo Credi)|彼得·N·科尔姆(Petter N. Kolm)|西蒙娜·卡尔代拉拉(Simone Calderara)
意大利摩德纳-雷焦艾米利亚大学“恩佐·法拉利”工程系,摩德纳,41125,MO
摘要
现代深度神经网络在流式数据环境中难以保留知识,这常常导致在增量训练过程中出现遗忘现象。大多数持续学习(Continual Learning, CL)方法通过在获取新知识的同时复习存储在重放缓冲区(replay buffer)中的过去数据来解决这一问题。然而,在实际场景中,噪声标签可能会污染重放缓冲区,从而影响性能。本研究在之前的工作“愿遗忘与你同在”(May the Forgetting Be with You)的基础上进行了扩展,旨在解决带有噪声标签的持续学习问题。通过利用正确标记和错误标记示例之间的不同学习动态,该方法诱导有针对性的遗忘,以识别和过滤掉噪声标签。我们提出了EARL方法,它在以下几个方面进行了改进:i) 对存在噪声时的学习动态进行了详细分析;ii) 在更现实的噪声条件下进行了稳健性分析;iii) 使用预训练的模型骨干和现代基于提示的CL基线进行了性能评估;iv) 对不同采样策略的影响进行了详细研究;v) 在自然语言处理(NLP)基准测试上的实验。这项工作揭示了先前研究的动机和发现,阐明了其各组成部分在实现高性能和最小化遗忘方面的有效性。
通过几项深入研究,我们展示了我们的提案——Embracing Amnesic Replay for Learning with Noisy Labels(EARL)——在噪声标签下显著提高了CL模型的稳定性和性能。值得注意的是,EARL可以应用于任何基于重放的技术和不同类型的噪声,从合成生成的噪声到数据收集过程中出现的真实噪声。具体来说,我们评估了由人类注释者在注释过程中引入标签噪声的情况,以及通过自动注释过程(例如,通过爬取网络收集的数据)引入标签噪声的情况。为了模拟自动标注流程,我们进行了一项实验,其中数据是通过零样本CLIP(CLIP)的预测自动标注的。最后,与当前的最先进技术不同,我们的分析还涵盖了预训练模型的持续微调,这是AI领域的一个显著趋势。