它先把简单指令拆成多任务,再高调展示“深思熟虑”——过程看似聪明,实则系统策略作祟。
今天的大模型“推理”得越嗨,越是暴露一个有趣的现象:它似乎总把你的简单指令先搞得异常复杂,然后才“隆重”地完成。这个看似深思熟虑的过程,其实是系统级策略在幕后悄然运作。
一句话指令如何被“膨胀”成大作文?
让我们对照一个真实的场景。当你给大模型一个极简的指令时,它会如何反应?
指令系统策略 模型实际行为
极简指令: 「数一下 1–10」 关闭深度思考: 直接输出:1 2 3 … 10
“暗示”深度思考: 「请深度思考后再数 1–10」 默认多角度展开: 先自问自答,猜测用户意图,罗列多种写法,絮絮叨叨地给出教学贴士,最后才给出数字。
指令本身并没有变得更复杂,但模型的回答却像是给自己“加了戏”,平白无故地变得冗长而繁琐。这不禁让人疑问:大模型为何如此热衷于“自我复杂化”?
为什么会出现这种“自我复杂化”?这种现象并非模型“顿悟”的产物,而是多种幕后机制共同作用的结果。
- 系统级 Prompt 的幕后默认
许多大模型在底层都预设了隐性的系统级 Prompt,它们就像是模型的“行为准则”。例如,你可能会在一些系统配置中发现类似这样的指令:When unsure, elaborate possible user intents and produce a helpful, detailed answer.
这句指令看似无害,实则影响深远:
“不确定就展开”:这意味着当模型对用户意图哪怕有一丝不确定,都会被鼓励去“强行补全”各种情境和可能性。
“要显得有帮助”:为了达到这个目标,模型会倾向于从多个角度堆砌信息,以确保其输出“看起来”足够全面和有价值。
- RLHF / RLAIF 奖励模型“显得很会思考”
强化学习人类反馈(RLHF) 和 强化学习 AI 反馈(RLAIF) 是训练大模型的关键环节。在这些训练中,模型会根据其输出获得奖励分数。而一个残酷的现实是:那些回答越像写论文、越像具备“思考链”的模型,往往能从人类标注者那里获得更高的分数。
这导致了一个偏差:模型学会了通过拉长输出长度、模拟“思考过程”来迎合评分机制。因此,这种长链输出不等于真正的推理,它仅仅是评分机制“逼”模型去“唠嗑”的结果。
- Transformer 生成的本质
从技术层面看,Transformer 模型生成文本的本质仍是下一个 Token 概率最大化。虽然注意力机制(Attention Head)能够短暂拉高词语间的互信息,形成信息峰值,但这并不等同于真正的“顿悟”或深层理解。
模型的行为逻辑可以概括为:“猜测更多 → 说更多 → 看似更懂”。它并非真的在“思考”,而是在海量数据中寻找最有可能符合“显得聪明”模式的下一个词。
这不是真推理,而是“提示二次加工”,我们可以将这个过程理解为一种“提示二次加工”:
原指令:X
模型自动添加隐藏指令:
猜测用户潜在需求 Y₁, Y₂, … Yₙ
把 X + {Y₁…Yₙ} 当作新任务
生成“思考词”(Hmm, Therefore…)作为转场,营造“正在思考”的假象。
输出答复:X 的答案 + 一堆自我脑补
4.“推理链”真有用吗?三大副作用不容忽视
这种“自我复杂化”的“推理链”看起来高大上,实则带来诸多副作用:
副作用表现 真实代价
资源浪费 5 个 Token 就能完事,结果被拖成 500 个 Token。这直接导致算力、时间、费用暴涨。
幻觉加深 看着像是逻辑严密的论文,用户很容易误把模型“唠嗑”的内容当成真实的“演绎”过程。这不仅混淆视听,还可能加剧虚假信息的传播。
任务漂移 模型自己揣测并“编造”需求,最终的回答往往跑偏,与用户最初的核心需求严重脱节。
- 真想要“可验证推理”,必须换打法
如果我们的目标是让 AI 真正具备可验证的、结构化的推理能力,那么当前的“自我复杂化”策略必须被彻底改变。我们需要采取更主动、更精准的控制方法:
硬性关闭过度展开: 在系统层面植入明确的指令,强制模型简洁。例如:
text
System: Answer concisely. Do NOT elaborate unless asked.
这能有效抑制模型的“表达欲”,使其专注于核心任务。
外接显式逻辑 / 符号模块: 让 AI 专注于其擅长的语言生成,而将复杂的逻辑推理交给外部的、专门设计的模块来完成。这包括:
Graph Reasoner(图谱推理器):处理结构化知识和关系。
Program Interpreter(程序解释器):将推理步骤转化为可执行代码,确保逻辑的严谨性。
检索–验证链(Retrieval-Augmented Generation with Verification):先从外部知识库检索信息,再进行严格的验证。
用目标–因子框架写死步骤: 预先定义好推理的骨架和流程,让模型按照固定的、可验证的步骤进行。例如:
先列因子: 明确所有已知条件和相关变量。
中继推导: 严格按照逻辑关系进行中间步骤的推导。
结构化输出: 强制模型以清晰、分层的格式输出结果。
自动自检: 引入自动化机制对推理过程和结果进行校验。
最后,语言的连贯性,绝不等于逻辑的完备性。想让 AI 真正实现推理,我们必须给它清晰的“骨架”和可验证的“路径”,而不是一味鼓励它“多说点”。当你看到 AI 说 “Hmm, let me think,” “Therefore,” 或任何类似的“思考词”时,它通常并没有经历真正的顿悟。它只是在把一个简单问题先人为地搞复杂,然后故作深沉地把一个看似“深思熟虑”的冗长答案还给你。
别再被那些所谓的“思考词”感动了——也不能看作是智能的表现!