利用预测不确定性减少在线持续学习中的灾难性遗忘

How to Leverage Predictive Uncertainty Estimates for Reducing Catastrophic Forgetting in Online Continual Learning

摘要

本文探讨了在线持续学习(Online Continual Learning, Online-CL)中如何利用预测不确定性估计来减少灾难性遗忘(Catastrophic Forgetting, CF)的问题。在许多实际应用中,机器学习模型需要处理非平稳数据分布,并在在线环境中自主学习。灾难性遗忘是指模型在处理新任务时,倾向于忽略旧任务的知识,导致旧任务的预测性能下降。本文通过深入分析不同的不确定性估计和策略,提出了一种基于广义方差的不确定性估计方法,并证明了使用预测不确定性度量有助于在不同设置中减少灾难性遗忘。

原理

本文的关键工作原理是利用预测不确定性来管理内存,以减少灾难性遗忘。预测不确定性提供了样本在决策空间中的位置信息,通过选择具有最低不确定性的样本(bottom-k)或具有最高不确定性的样本(top-k)来填充内存。本文提出了一种新的不确定性估计方法,即基于Bregman Information(BI)的广义方差度量,该方法从模型损失的偏差-方差分解中直接得到。BI度量了预测在logit空间中的变异性,有助于识别鲁棒和代表性的样本。

流程

本文的工作流程包括两个主要步骤:内存管理和不确定性估计。在内存管理方面,文章提出了一种基于类平衡更新的策略,根据预测不确定性估计选择样本存储在内存中。在不确定性估计方面,文章引入了一种基于Bregman Information的估计方法,通过计算分类损失的方差项来估计样本的不确定性。实验部分在CIFAR-10数据集上进行了评估,并展示了bottom-k策略在减少灾难性遗忘方面的有效性。

应用

本文提出的方法在图像分类等在线持续学习任务中具有广泛的应用前景。特别是在数据不平衡的现实场景中,如医学图像分类,该方法能够有效地减少灾难性遗忘,提高模型的长期学习能力。此外,该方法的灵活性和减少训练时间的特点使其在实际应用中具有较高的可行性。