Sub-SA:革新大型语言模型的选择性注释方法,实现毫秒级高效学习

Sub-SA: Strengthen In-context Learning via Submodular Selective Annotation

摘要

本文介绍了一种名为Sub-SA(Submodular Selective Annotation)的新型选择性注释方法,旨在通过子模块选择性注释技术,降低大型语言模型(LLMs)在上下文学习(ICL)中的注释成本。Sub-SA通过设计一个子模块函数,有效地从大量未标记数据集中选择信息密集的子集,以提高注释质量和减少选择过程的时间消耗。该方法通过奖励和惩罚正则化(RPR)来平衡数据的多样性和代表性,从而在保持理论支持的同时,实现了从小时级到毫秒级的选择过程加速。实验证明,Sub-SA在多种任务和模型上均优于现有选择性注释方法,显示出其在实际ICL场景中的高效性和适用性。

原理

Sub-SA的核心在于利用子模块函数进行高效的数据子集选择。子模块函数具有单调性和次模性,能够在选择过程中确保每次添加的元素对整体目标贡献最大化。通过RPR机制,Sub-SA引入了奖励项和惩罚项,分别鼓励选择具有高代表性分数的候选元素和减少选择过于相似的元素,从而在保持数据多样性的同时增强其代表性。这种设计使得Sub-SA能够在无需LLMs参与或迭代选择的情况下,通过简单的贪婪搜索算法快速找到最优子集,显著降低了选择过程的时间消耗。

流程

Sub-SA的工作流程包括以下几个步骤:首先,从大量未标记数据集中应用子模块函数进行初始子集选择;接着,通过RPR机制进一步优化子集,确保其既具有代表性又保持多样性;然后,利用贪婪搜索算法在子模块函数的指导下,高效地选择最终的注释子集;最后,应用相似性提示检索技术,从选定的子集中获取用于ICL任务的示例。整个过程无需人工干预,实现了端到端的自动化选择。

应用

Sub-SA方法在降低注释成本和提高ICL性能方面展现出巨大潜力,适用于各种需要高效数据选择的自然语言处理任务,如文本分类、常识推理、对话系统和文本生成等。随着LLMs在更多领域的应用扩展,Sub-SA有望成为优化模型训练和提高性能的重要工具,特别是在资源受限或需要快速部署的场景中。