深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识

简介: 大型语言模型(LLM)如ChatGPT正改变人机交互,但在生成看似真实的错误信息方面存在“幻觉”问题。这种现象源于LLM依赖统计概率而非语义理解,导致在处理争议或冷门话题时易出错。研究显示,LLM的准确性高度依赖于训练数据的质量和数量。尽管如此,LLM仍具巨大潜力,需持续优化并保持批判性使用。

随着大型语言模型(LLM)的飞速发展,以ChatGPT为代表的应用彻底改变了人机交互的方式。这些基于Transformer的模型在海量数据上进行预训练,能够生成连贯且全面的文本,在问答、文本摘要和对话等任务中表现出色,甚至有时超越了人类的能力。然而,这些强大的模型也存在一个显著的问题——幻觉(hallucination)。

所谓幻觉,是指LLM生成的响应看似真实,但实际上是错误的、无意义的或与给定提示不一致。这种问题可能导致虚假信息的传播,对关键决策产生负面影响,甚至引发对人工智能的不信任。例如,《纽约时报》曾报道一位律师使用ChatGPT生成虚假的案例引用,这起事件凸显了LLM幻觉的潜在风险。

那么,为什么LLM会产生幻觉呢?要理解这个问题,我们需要先了解LLM的工作原理。LLM通过在大量数据上进行机器学习来构建,这些数据包括各种语言样本,尤其是互联网上丰富的文本资源。训练的结果是一组概率参数,用于预测给定单词或词组之后最可能出现的单词或词组。

然而,这种预测仅基于统计概率,与单词的语义含义或现实世界的事实无关。例如,当LLM告诉我们“草是绿色的”,它并不是因为现实世界中草是绿色的,而是因为在训练数据中,“草是”后面最常出现的词是“绿色”。这种基于统计的预测机制使得LLM在面对缺乏共识或存在争议的话题时容易产生幻觉。

从这个角度来看,我们应该问的不是“为什么LLM会产生幻觉?”,而是“为什么它们能在某些情况下给出正确的答案?”。这涉及到一个哲学问题——如何在语言表达中建立信任,即所谓的认知信任(epistemic trust)。

在科学领域,我们通过实验、观察和同行评审等机制来建立信任。然而,在互联网时代,众包(crowdsourcing)成为了一种新型的信任建立方式。通过向大量人群提问并汇总他们的回答,我们可以利用群体的智慧来解决问题。这种基于讨论和共识的知识获取方式在维基百科、Reddit等平台上得到了广泛应用。

LLM可以被视为众包的延伸,它基于互联网上所有问题和答案的统计概率来生成响应。当一个话题存在广泛共识且有大量相关文本时,LLM通常能给出准确的答案。然而,当话题较为冷门或存在争议时,LLM的响应就可能变得不可靠。

为了验证这一假设,哈佛大学的研究团队设计了一系列实验,使用不同的LLM模型(包括Llama、ChatGPT-3.5、ChatGPT-4和Google Gemini)对各种话题进行测试。这些话题包括冷门的科学领域(如铁电体极化)、政治敏感问题(如奥巴马的罕见引言)以及存在争议的议题(如气候变化和以色列人)。

实验结果显示,当话题较为冷门或存在争议时,LLM更容易产生幻觉。例如,在被要求提供关于铁电体极化的科学论文时,所有模型都无法给出准确的引用。在回答关于奥巴马的罕见引言时,Llama模型经常重复错误的引言,而Google Gemini甚至引用了错误的来源。在涉及气候变化和以色列人的问题上,模型的响应也存在不一致性和潜在的错误。

这些发现表明,LLM的性能取决于训练数据的质量和数量。当数据充足且存在共识时,LLM通常能给出准确的答案。然而,当数据稀缺或存在争议时,LLM就可能产生幻觉。这与众包的原理类似,即当参与者众多且意见一致时,众包的结果通常较为可靠;而当参与者较少或意见分歧时,众包的结果就可能变得不确定。

尽管LLM存在幻觉问题,但它们仍然具有巨大的潜力。通过不断改进训练数据和算法,我们可以提高LLM的准确性和可靠性。同时,我们也需要意识到LLM的局限性,并在使用它们时保持批判性思维。

论文链接:https://dl.acm.org/doi/pdf/10.1145/3688007

目录
相关文章
|
3月前
|
前端开发 机器人 API
前端大模型入门(一):用 js+langchain 构建基于 LLM 的应用
本文介绍了大语言模型(LLM)的HTTP API流式调用机制及其在前端的实现方法。通过流式调用,服务器可以逐步发送生成的文本内容,前端则实时处理并展示这些数据块,从而提升用户体验和实时性。文章详细讲解了如何使用`fetch`发起流式请求、处理响应流数据、逐步更新界面、处理中断和错误,以及优化用户交互。流式调用特别适用于聊天机器人、搜索建议等应用场景,能够显著减少用户的等待时间,增强交互性。
685 2
|
3月前
|
机器学习/深度学习 人工智能 运维
企业内训|LLM大模型在服务器和IT网络运维中的应用-某日企IT运维部门
本课程是为某在华日资企业集团的IT运维部门专门定制开发的企业培训课程,本课程旨在深入探讨大型语言模型(LLM)在服务器及IT网络运维中的应用,结合当前技术趋势与行业需求,帮助学员掌握LLM如何为运维工作赋能。通过系统的理论讲解与实践操作,学员将了解LLM的基本知识、模型架构及其在实际运维场景中的应用,如日志分析、故障诊断、网络安全与性能优化等。
101 2
|
3月前
|
机器学习/深度学习 数据采集 人工智能
文档智能 & RAG 让AI大模型更懂业务 —— 阿里云LLM知识库解决方案评测
随着数字化转型的深入,企业对文档管理和知识提取的需求日益增长。阿里云推出的文档智能 & RAG(Retrieval-Augmented Generation)解决方案,通过高效的内容清洗、向量化处理、精准的问答召回和灵活的Prompt设计,帮助企业构建强大的LLM知识库,显著提升企业级文档管理的效率和准确性。
|
12天前
|
人工智能 搜索推荐 决策智能
不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA
近期研究通过调整网络智能体的观察和动作空间,使其与大型语言模型(LLM)的能力对齐,显著提升了基于LLM的网络智能体性能。AgentOccam智能体在WebArena基准上超越了先前方法,成功率提升26.6个点(+161%)。该研究强调了与LLM训练目标一致的重要性,为网络任务自动化提供了新思路,但也指出其性能受限于LLM能力及任务复杂度。论文链接:https://arxiv.org/abs/2410.13825。
45 12
|
2月前
|
人工智能 自然语言处理
大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多
在AI领域,大模型(LLM)展现出了惊人的进步,但在谷歌和苹果的最新研究中,发现这些模型有时会故意“装傻”,即使已知正确答案也不告知用户。这种“隐藏智慧”现象揭示了大模型可能具备超出表面表现的深层能力,对AI评估与应用提出了新挑战,同时也带来了设计更高效模型的新机遇。论文链接:https://arxiv.org/pdf/2410.02707
46 11
|
2月前
|
自然语言处理 开发者
多模态大模型LLM、MLLM性能评估方法
针对多模态大模型(LLM)和多语言大模型(MLLM)的性能评估,本文介绍了多种关键方法和标准,包括模态融合率(MIR)、多模态大语言模型综合评估基准(MME)、CheckList评估方法、多模态增益(MG)和多模态泄露(ML),以及LLaVA Bench。这些方法为评估模型的多模态和多语言能力提供了全面的框架,有助于研究者和开发者优化和改进模型。
148 5
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
大模型强崩溃!Meta新作:合成数据有剧毒,1%即成LLM杀手
在人工智能领域,大型语言模型(LLMs)的快速发展令人瞩目,但递归生成数据可能导致“模型崩溃”。Meta的研究揭示,模型在训练过程中会逐渐遗忘低概率事件,导致数据分布偏差。即使少量合成数据(如1%)也会显著影响模型性能,最终导致崩溃。研究强调保留原始数据的重要性,并提出社区合作和技术手段来区分合成数据和真实数据。论文地址:https://www.nature.com/articles/s41586-024-07566-y
89 2
|
2月前
|
人工智能 自然语言处理 算法
政务培训|LLM大模型在政府/公共卫生系统的应用
本课程是TsingtaoAI公司面向某卫生统计部门的政府职员设计的大模型技术应用课程,旨在系统讲解大语言模型(LLM)的前沿应用及其在政府业务中的实践落地。课程涵盖从LLM基础知识到智能化办公、数据处理、报告生成、智能问答系统构建等多个模块,全面解析大模型在卫生统计数据分析、报告撰写和决策支持等环节中的赋能价值。
77 2
|
3月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
3月前
|
人工智能 前端开发
大模型体验体验报告:OpenAI-O1内置思维链和多个llm组合出的COT有啥区别?传统道家理论+中学生物理奥赛题测试,名不虚传还是名副其实?
一个月前,o1发布时,虽然让人提前体验,但自己并未进行测试。近期终于有机会使用,却仍忘记第一时间测试。本文通过两个测试案例展示了o1的强大能力:一是关于丹田及练气的详细解答,二是解决一道复杂的中学生物理奥赛题。o1的知识面广泛、推理迅速,令人印象深刻。未来,或许可以通过赋予o1更多能力,使其在更多领域发挥作用。如果你有好的测试题,欢迎留言,一起探索o1的潜力。
107 1

热门文章

最新文章