在近期的NeurIPS 2024会议上,杜克大学和谷歌研究团队提出了一种名为Self Logits Evolution Decoding(SLED)的新型解码框架,该框架旨在提高大语言模型(LLMs)的事实准确性,同时无需依赖外部知识库或进行额外的微调。
大语言模型在近年来取得了显著的突破,在各种领域展现出了卓越的性能。然而,这些模型的输出有时可能不可靠或与事实不符,这在实际应用中削弱了它们的可信度和实用性。
为了解决这一问题,研究团队提出了SLED解码框架。该框架通过对比最终层和早期层的输出logits,利用模型内部嵌入的潜在知识来增强输出的准确性。具体而言,SLED通过一种近似梯度的方法,使潜在知识能够指导输出的自我完善,从而有效地提高事实准确性。
SLED的工作原理可以概括为以下几个步骤:
Logits Evolution:SLED首先通过对比早期层和最终层的logits,来估计模型的潜在知识。这一过程基于一个假设,即最终层的logits更接近真实世界的事实分布。
Estimate 𝒫𝑟𝑒𝑎𝑙:通过跟踪logits的演变方向,SLED能够估计出真实世界的事实分布𝒫𝑟𝑒𝑎𝑙。这一估计基于早期层和最终层logits的差异,以及它们与真实世界事实分布的接近程度。
Self Logits Evolution:基于上述估计,SLED通过一个类似于“单步梯度下降”的操作,对最终层的logits进行自我进化。这一操作旨在最小化潜在知识分布和输出分布之间的Kullback-Leibler(KL)散度,从而平衡两者并减轻潜在的偏差。
研究团队在多个基准测试上对SLED进行了广泛的实验,包括LLaMA 2、LLaMA 3和Gemma等不同模型家族,以及从2B到70B的不同规模的模型。实验结果显示,SLED在各种任务上都能够显著提高事实准确性,包括多选题、开放生成和链式思维推理等。
具体而言,SLED在多选题任务上能够将事实准确性提高多达20%,同时保持自然语言的流畅性和几乎可以忽略不计的延迟开销。此外,SLED还能够与其他解码方法灵活结合,进一步增强它们的表现。
正面评价:
- 创新性:SLED提出了一种新颖的解码方法,通过利用模型内部嵌入的潜在知识来提高输出的准确性,而无需依赖外部知识库或进行额外的微调。
- 有效性:实验结果显示,SLED在各种任务上都能够显著提高事实准确性,包括多选题、开放生成和链式思维推理等。
- 灵活性:SLED能够与其他解码方法灵活结合,进一步增强它们的表现。
反面评价:
- 复杂性:SLED的实现可能相对复杂,需要对模型的内部机制有深入的理解。
- 计算开销:虽然SLED的延迟开销几乎可以忽略不计,但在实际应用中,其计算开销可能仍然是一个需要考虑的因素。
- 局限性:SLED的性能可能受到模型规模和配置的影响,对于某些特定任务或模型,其效果可能不如预期。