谷歌最近推出了一项名为AGREE(Adaptation for GRounding EnhancEment,即基于调整的增强型接地)的新技术,旨在提高大型语言模型(LLMs)生成的回答的准确性。这项技术的主要目标是解决LLMs在实际应用中面临的一个主要问题:它们可能会生成与事实不符的“幻想”回答。
LLMs在自然语言理解和生成方面取得了显著的进展,但它们的广泛应用仍面临一些挑战。其中之一是它们生成的回答可能没有准确的事实依据,这被称为“幻想”问题。这个问题可能会导致用户对LLMs的信任度下降,从而限制了它们的实际应用。
为了解决这个问题,谷歌提出了AGREE技术。该技术旨在通过将LLMs的回答与检索到的段落进行接地,并提供准确的引用,来提高LLMs的准确性。具体来说,AGREE技术通过调整预训练的LLMs,使它们能够自我接地,即在回答中引用支持其主张的准确来源。
AGREE技术的核心思想是,通过将LLMs的回答与准确的事实来源进行接地,可以提高回答的准确性。这可以通过两种方式实现:首先,在训练过程中,AGREE技术使用一种方法来自动构建带有准确引用的查询-回答对,以进行监督学习。然后,在测试过程中,调整后的LLMs能够主动检索支持其主张的段落,以进一步提高回答的准确性。
根据谷歌的研究,AGREE技术在五个数据集和两个LLMs上进行了测试,结果显示,与基于提示的方法和事后引用的方法相比,AGREE技术生成的接地回答更准确,引用也更准确。这表明AGREE技术有望成为提高LLMs准确性的一种有效方法。
然而,AGREE技术也面临一些挑战和限制。首先,虽然AGREE技术可以提高LLMs回答的准确性,但并不能完全消除“幻想”问题。这可能是因为LLMs的训练数据中仍然存在不准确或有偏见的信息,这些信息可能会影响到LLMs的回答。
其次,AGREE技术需要大量的计算资源和时间来进行调整和训练。这可能会限制其在资源有限的环境中的应用,例如在移动设备或边缘计算设备上。
此外,AGREE技术还可能面临隐私和安全方面的挑战。由于AGREE技术需要检索和引用外部来源的信息,因此可能会涉及对个人或敏感信息的泄露。