探索大型语言模型在不确定性下的回退行为:从循环到幻觉的转变
摘要
本文探讨了大型语言模型(LLMs)在面对不确定性时表现出的不良行为,如幻觉和序列重复。文章提出将这些行为视为模型在不确定性下的“回退行为”,并分析了这些行为与模型预训练令牌数量、参数数量或遵循指令训练的关系。实验表明,随着模型复杂性的增加,其回退行为从序列重复转变为退化文本,最终变为幻觉。此外,文章还发现,尽管常见的解码技术如随机采样可以减轻某些不良行为,如序列重复,但会增加更难以检测的幻觉。
原理
文章通过实验分析了不同LLMs在面对不确定性时的行为模式。模型被分为不同的类别,包括序列重复、退化文本和幻觉,这些行为被视为模型在无法产生合理延续时的回退策略。实验涉及多个模型家族,考虑了参数数量、预训练令牌数量、遵循指令训练和解码算法等因素。结果显示,模型复杂性的增加会导致回退行为向更复杂的形式转变,即从简单的序列重复到幻觉。此外,解码方法的选择也会影响模型的回退行为,例如,随机采样虽然减少了退化文本,但增加了幻觉的产生。
流程
实验设置包括使用多个数据集,如TRIVIAFACTS、BIOGENERATION、QAMPARI和FAKEQAMPARI,来测试模型在不同情境下的回退行为。模型被要求在控制的自然发生的不确定性情况下回忆事实,并评估每个预测的正确性。实验使用了贪婪解码方法,除非另有说明。评估指标包括生成的输出的正确性、重复性和幻觉性。实验结果通过图表展示,显示了模型在不同条件下的行为变化。
应用
本文的研究结果对于理解和改进LLMs在实际应用中的表现具有重要意义。了解模型在不确定性下的行为模式可以帮助开发更可靠和准确的AI系统。此外,研究还指出了现有解码技术在减少某些不良行为时可能带来的副作用,这为未来的研究提供了改进方向。
