大模型的 “幻觉” 指的是 AI 生成了看似合理但实际上错误或编造的信息。例如,它可能会编造不存在的事实、错误引用文献、甚至捏造公司或人物的信息。
一、幻觉产生的原因
语言模型的 “填空” 机制
- Transformer 语言模型本质上是一个 “填空预测器”,它是根据概率预测来选择下一个输出的词,而不是在 “思考” 正确答案。
训练数据存在缺陷
- 训练数据本身可能包含错误信息、不完整数据、偏见信息,导致模型学到不真实的内容。
- 训练数据可能过时,例如,GPT-4 的数据截止到 2023 年初,无法回答最新时事。
缺乏事实验证能力
- 语言模型在生成文本时,并不会主动去查证答案的真实性。
长文本记忆力有限
- 由于上下文窗口有限(如 GPT-4-turbo 约 128k tokens),当文本过长时,AI 可能遗忘前面提到的信息。
二、解决幻觉的几个方案
- RAG(检索增强生成):让模型先从真实数据源检索信息再生成内容,从输入环节确保信息的准确性。
- Fine-tuning(微调):通过专业领域数据训练模型,强化其在特定领域的知识储备,减少错误输出。
- 限制回复规则:通过提示词明确 “未知则答不知” 的边界,避免模型编造信息。
- 标注与反馈优化:基于人工或系统反馈持续调整模型参数,逐步修正错误倾向。
- 多轮生成选优:通过多次生成内容并筛选,降低单次输出错误的概率。
- AI 自我核查:在输出后增加自检环节,标记不确定内容,提示用户信息的可靠性风险。
- 联网获取实时数据:补充模型训练数据的时效性不足问题,适配最新信息需求。
- 推理过程显性化:要求模型先输出推理逻辑再给结论,便于追溯错误来源,同时提升内容的合理性。