探索大型语言模型在战略决策中的偏差与挑战
摘要
本文探讨了大型语言模型(LLMs)在双人非零和游戏中的战略决策能力,特别是在Stag Hunt和Prisoner’s Dilemma游戏中的表现。研究发现,尽管LLMs在处理精心设计的提示时能够解决这些任务,但在问题设置或提示变化时,其表现显著下降。研究揭示了LLMs在战略游戏中存在三种系统性偏差:位置偏差、收益偏差和行为偏差。这些偏差导致LLMs在游戏配置与偏差不一致时性能下降。文章还指出,尽管思维链提示(CoT)在一定程度上减少了偏差的影响,但并未从根本上解决问题。研究结果强调了理解LLMs在复杂社会场景中操作能力的重要性,并指出了当前评估LLMs能力的标准指标的不足。
原理
大型语言模型(LLMs)在双人非零和游戏中的决策过程受到三种系统性偏差的影响:位置偏差、收益偏差和行为偏差。位置偏差是指模型在提示中动作标签的顺序影响其选择频率;收益偏差是指模型倾向于选择与最大可能自我收益或共同收益相关的动作,而不是最大化预期收益的动作;行为偏差是指模型在选择动作时受到行动者和同伴玩家偏好行为的影响。这些偏差导致模型在游戏配置与偏差不一致时性能下降。研究通过调整提示中的位置、收益和行为偏好,系统地分析了这些偏差对LLMs决策的影响。
流程
研究首先通过初步实验比较了人类和GPT-4o在Stag Hunt游戏中的选择频率,发现GPT-4o的选择受到位置偏差的影响。随后,研究设计了16种不同的实验设置,通过调整提示中的位置、收益和行为偏好,测试了GPT-3.5、GPT-4-Turbo、GPT-4o和Llama-3-8B在Stag Hunt和Prisoner’s Dilemma游戏中的表现。实验采用两种提示方法:仅回答(AO)和零样本思维链(CoT)提示。通过Fisher精确检验分析了三种偏差的统计显著性,并进行了对齐分析,比较了模型在偏差对齐和不对齐情况下的性能。
应用
本文的研究结果对于理解LLMs在复杂社会场景中的应用具有重要意义。通过揭示LLMs在战略决策中的系统性偏差,研究为改进LLMs的决策能力提供了方向。未来工作可以进一步探索如何通过提示工程减少这些偏差的影响,以及如何设计更有效的评估指标来全面评估LLMs的能力。此外,研究结果对于开发更智能的多代理系统、改进人机交互等领域也具有潜在的应用价值。
