探索稳定并行持续学习:一种基于正交化策略的新方法

Towards stable training of parallel continual learning

摘要

本文探讨了并行持续学习(PCL)中的训练稳定性问题,特别是在多源输入数据情况下的持续学习方法。PCL适用于复杂的多源数据系统,如配备多传感器的自动驾驶车辆。然而,由于多个任务需要同时训练,PCL在正向和反向传播过程中存在严重的训练不稳定性,表现为特征纠缠和梯度冲突。为此,本文提出了一种新的稳定并行持续学习(SPCL)方法,通过在正向传播中应用基于双块Toeplitz(DBT)矩阵的正交性约束,以及在反向传播中采用正交分解来管理梯度,从而增强训练稳定性。实验结果表明,SPCL方法在多个数据集上优于现有方法,显著提高了训练稳定性。

原理

SPCL方法的核心在于通过正交性约束来稳定神经网络的训练过程。在正向传播中,使用DBT矩阵的正交性约束来确保网络参数的稳定和一致传播,从而减少特征提取器之间的干扰。在反向传播中,通过正交分解来稳定梯度管理,减少任务间的梯度冲突。这种方法通过确保梯度的正交性和最小化条件数,有效地稳定了复杂优化任务中的梯度下降过程。

流程

SPCL的工作流程包括以下步骤:

  1. 在正向传播中,对网络参数应用DBT矩阵的正交性约束,确保稳定的正向传播。
  2. 在反向传播中,使用正交分解方法来管理梯度,稳定反向传播并减少任务间的梯度冲突。
  3. 通过优化梯度,确保正交性并最小化条件数,从而稳定梯度下降过程。 具体示例包括在CIFAR-10数据集上的玩具实验,展示了在训练过程中引入第二个任务时,SPCL方法如何有效地维持训练稳定性。

应用

SPCL方法适用于需要处理多源动态数据的各种应用场景,如自动驾驶、监控系统等。其高效的训练稳定性和对复杂多任务环境的适应性,使其在这些领域具有广泛的应用前景。随着技术的进一步发展和优化,SPCL有望在更多需要持续学习和多任务处理的领域发挥重要作用。