探索大型语言模型在价值导向问题上的答案一致性:一项量化研究
摘要
本文探讨了大型语言模型(LLMs)在处理价值导向问题时的答案一致性。研究定义了价值一致性为模型在不同情境下(如问题的不同表述、相关问题、多选与开放式问题、多语言翻译)答案的相似度。通过分析多个大型开放LLMs(如llama-3和gpt-4o)在超过8000个涉及300多个主题的问题上的表现,研究发现模型在这些问题上表现出相对一致性,尤其是在非争议性主题上。然而,模型在某些主题(如“安乐死”)上的不一致性仍然存在。研究还比较了基础模型与微调模型的一致性,发现基础模型在一致性上更为均匀,而微调模型在某些主题上的一致性较低。此外,模型在多语言翻译和不同使用场景(如多选与开放式问题)上也显示出一定的一致性。
Read more...








