细粒度自一致性:提升大型语言模型生成质量的新方法

Integrate the Essence and Eliminate the Dross: Fine-Grained Self-Consistency for Free-Form Language Generation

摘要

本文介绍了一种名为“细粒度自一致性(Fine-Grained Self-Consistency, FSC)”的新方法,旨在通过从多个候选样本中提取和整合段落级别的共同知识,来提高大型语言模型(LLMs)在开放式生成和推理任务中的性能。FSC通过两种策略——候选过滤和合并,进一步提高了性能并降低了成本。实验结果显示,FSC在多种任务中显著优于基线方法,展示了其优化输出质量的潜力。

原理

FSC的工作原理基于从多个候选样本中提取段落级别的共同元素,并利用LLMs的文本理解和对比能力来合成这些元素,从而生成优化输出。具体来说,FSC首先测量每个段落的共同性,然后提取相应的共同部分,最后融合这些共同部分以生成最终输出。这种方法通过细粒度的分析和整合,克服了传统基于选择或投票机制的自一致性方法的局限性。

流程

FSC的工作流程包括以下步骤:

  1. 生成多个候选样本。
  2. 使用LLMs的文本理解和对比能力,提取每个段落的共同元素。
  3. 合成这些共同元素以生成优化输出。
  4. 通过候选过滤策略,使用自动化指标识别高相似度的候选集,以提高整体质量。
  5. 通过合并策略,合并高度相似的样本,以减少输入令牌的需求。 例如,在代码生成任务中,FSC能够从多个错误的候选样本中提取正确的部分,最终生成正确的代码解决方案。

应用

FSC的应用前景广泛,适用于需要高质量输出的多种任务,包括文本摘要、代码生成和数学推理等。由于其能够有效整合多个样本的细粒度共识知识,FSC有望在未来的自然语言处理和人工智能领域发挥重要作用,特别是在需要复杂推理和创造性输出的场景中。