深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识

简介: 大型语言模型(LLM)如ChatGPT正改变人机交互,但在生成看似真实的错误信息方面存在“幻觉”问题。这种现象源于LLM依赖统计概率而非语义理解,导致在处理争议或冷门话题时易出错。研究显示,LLM的准确性高度依赖于训练数据的质量和数量。尽管如此,LLM仍具巨大潜力,需持续优化并保持批判性使用。

随着大型语言模型(LLM)的飞速发展,以ChatGPT为代表的应用彻底改变了人机交互的方式。这些基于Transformer的模型在海量数据上进行预训练,能够生成连贯且全面的文本,在问答、文本摘要和对话等任务中表现出色,甚至有时超越了人类的能力。然而,这些强大的模型也存在一个显著的问题——幻觉(hallucination)。

所谓幻觉,是指LLM生成的响应看似真实,但实际上是错误的、无意义的或与给定提示不一致。这种问题可能导致虚假信息的传播,对关键决策产生负面影响,甚至引发对人工智能的不信任。例如,《纽约时报》曾报道一位律师使用ChatGPT生成虚假的案例引用,这起事件凸显了LLM幻觉的潜在风险。

那么,为什么LLM会产生幻觉呢?要理解这个问题,我们需要先了解LLM的工作原理。LLM通过在大量数据上进行机器学习来构建,这些数据包括各种语言样本,尤其是互联网上丰富的文本资源。训练的结果是一组概率参数,用于预测给定单词或词组之后最可能出现的单词或词组。

然而,这种预测仅基于统计概率,与单词的语义含义或现实世界的事实无关。例如,当LLM告诉我们“草是绿色的”,它并不是因为现实世界中草是绿色的,而是因为在训练数据中,“草是”后面最常出现的词是“绿色”。这种基于统计的预测机制使得LLM在面对缺乏共识或存在争议的话题时容易产生幻觉。

从这个角度来看,我们应该问的不是“为什么LLM会产生幻觉?”,而是“为什么它们能在某些情况下给出正确的答案?”。这涉及到一个哲学问题——如何在语言表达中建立信任,即所谓的认知信任(epistemic trust)。

在科学领域,我们通过实验、观察和同行评审等机制来建立信任。然而,在互联网时代,众包(crowdsourcing)成为了一种新型的信任建立方式。通过向大量人群提问并汇总他们的回答,我们可以利用群体的智慧来解决问题。这种基于讨论和共识的知识获取方式在维基百科、Reddit等平台上得到了广泛应用。

LLM可以被视为众包的延伸,它基于互联网上所有问题和答案的统计概率来生成响应。当一个话题存在广泛共识且有大量相关文本时,LLM通常能给出准确的答案。然而,当话题较为冷门或存在争议时,LLM的响应就可能变得不可靠。

为了验证这一假设,哈佛大学的研究团队设计了一系列实验,使用不同的LLM模型(包括Llama、ChatGPT-3.5、ChatGPT-4和Google Gemini)对各种话题进行测试。这些话题包括冷门的科学领域(如铁电体极化)、政治敏感问题(如奥巴马的罕见引言)以及存在争议的议题(如气候变化和以色列人)。

实验结果显示,当话题较为冷门或存在争议时,LLM更容易产生幻觉。例如,在被要求提供关于铁电体极化的科学论文时,所有模型都无法给出准确的引用。在回答关于奥巴马的罕见引言时,Llama模型经常重复错误的引言,而Google Gemini甚至引用了错误的来源。在涉及气候变化和以色列人的问题上,模型的响应也存在不一致性和潜在的错误。

这些发现表明,LLM的性能取决于训练数据的质量和数量。当数据充足且存在共识时,LLM通常能给出准确的答案。然而,当数据稀缺或存在争议时,LLM就可能产生幻觉。这与众包的原理类似,即当参与者众多且意见一致时,众包的结果通常较为可靠;而当参与者较少或意见分歧时,众包的结果就可能变得不确定。

尽管LLM存在幻觉问题,但它们仍然具有巨大的潜力。通过不断改进训练数据和算法,我们可以提高LLM的准确性和可靠性。同时,我们也需要意识到LLM的局限性,并在使用它们时保持批判性思维。

论文链接:https://dl.acm.org/doi/pdf/10.1145/3688007

目录
相关文章
|
15天前
|
搜索推荐 数据管理 定位技术
iOS应用开发中有多种主流框架
iOS应用开发中有多种主流框架
136 60
|
14天前
|
API
国外地区经纬度查询免费API接口教程
此接口用于查询国外地区的经纬度信息,支持POST和GET请求方式。需提供用户ID、用户KEY、省级名称及具体地点。返回数据包括地区名称(中英文)、国家代码及经纬度等详细信息。示例请求与响应数据详见文档。
75 29
|
3天前
|
设计模式 Java 开发者
Java多线程编程的陷阱与解决方案####
本文深入探讨了Java多线程编程中常见的问题及其解决策略。通过分析竞态条件、死锁、活锁等典型场景,并结合代码示例和实用技巧,帮助开发者有效避免这些陷阱,提升并发程序的稳定性和性能。 ####
|
6天前
|
物联网 测试技术 vr&ar
在部署和发布移动应用时,需要注意多个关键事项以确保应用的成功上线和用户满意度
在部署和发布移动应用时,需要注意多个关键事项以确保应用的成功上线和用户满意度
87 65
|
22小时前
【12月更文挑战第03天】
【12月更文挑战第03天】
26 18
|
25天前
|
存储 Cloud Native Shell
go库介绍:Golang中的Viper库
Viper 是 Golang 中的一个强大配置管理库,支持环境变量、命令行参数、远程配置等多种配置来源。本文详细介绍了 Viper 的核心特点、应用场景及使用方法,并通过示例展示了其强大功能。无论是简单的 CLI 工具还是复杂的分布式系统,Viper 都能提供优雅的配置管理方案。
|
15天前
|
存储 人工智能 大数据
面向 AI 的存储基础设施升级
AI 与大数据融合化是大势所趋,企业可以通过大数据技术收集和存储大量数据,进行一站式计算分析和数据治理,以便安全、精确、高效、智能地应用数据。在这个话题中,我们将会介绍阿里云全栈存储数据基础设施如何支撑 AI 场景的创新与实践,并带来全新一代存储产品的重磅发布,帮助企业高效数字创新。
|
9天前
|
机器学习/深度学习 人工智能 算法
量子计算与化学:分子模拟的新技术
量子计算在化学领域的应用正逐步改变分子模拟的传统方式。基于量子力学原理,量子计算机能高效处理复杂分子的量子态,优化分子结构,模拟化学反应及电子结构计算,为新材料设计、药物研发等提供新途径。尽管当前技术仍面临稳定性与可扩展性的挑战,但其未来发展前景广阔,有望为化学研究带来革命性变化。
71 35
|
21天前
|
机器学习/深度学习 自然语言处理 人机交互
综合RLHF、DPO、KTO优势,统一对齐框架UNA来了
在大型语言模型(LLM)的预训练中,尽管模型已接触数万亿个标记,但仍可能生成不符合预期的响应。为解决这一问题,研究者提出了RLHF、DPO和KTO等对齐技术。然而,这些技术各有局限。为此,论文《UNA: Unifying Alignments of RLHF/PPO, DPO and KTO by a Generalized Implicit Reward Function》提出了一种新的统一对齐方法UNA。UNA通过引入广义隐式奖励函数,成功将RLHF/PPO、DPO和KTO统一起来,简化了训练过程,提高了模型的鲁棒性和性能。
46 15
|
23小时前
|
敏捷开发 人工智能 jenkins
探索软件测试的多维视角:从基础到进阶
本文旨在揭示软件测试不仅仅是一项技术活动,而是一种艺术,涉及创造性思维、策略规划与持续学习。我们将从软件测试的基础出发,逐步深入到自动化测试与性能测试的高级话题,最后探讨如何将测试融入敏捷开发和持续集成的环境中。通过本文,读者将获得一套完整的软件测试知识体系和实用策略,以适应不断变化的技术需求。
28 18