SBoRA:区域权重更新引领大型语言模型的高效微调新纪元
摘要
本文介绍了一种名为SBoRA的新型参数高效微调方法,专为大型语言模型(LLMs)设计。SBoRA在低秩适应(LoRA)和正交适应的基础上进一步发展,旨在减少计算和内存需求,同时提高学习性能。通过利用正交标准基向量初始化低秩矩阵之一,SBoRA实现了区域权重更新和内存高效的微调。这种方法在多种微调任务中显示出优越性,特别是在常识推理和算术推理任务中。此外,SBoRA在量化LLaMA模型上的有效性评估,强调了其适应新任务的潜力。
Read more...








