第一章·你必须先看穿它:AI写小说的底层真相·AI写作底层原理
很多人一上来就问我:“AI能不能直接写一本小说?”
我通常反问一句:“你知道它是怎么生成一句话的吗?”
如果连生成原理都不知道,就谈不上控制,更谈不上工程级使用。
这一章,我们不谈技巧,不谈提示词,我们只做一件事——拆穿幻觉。
一、什么是大语言模型(LLM)
所谓大语言模型(Large Language Model,LLM),本质上是一个在海量文本数据上训练出来的概率计算系统。
它不是作家。
它不是思想者。
它没有世界观。
它只做一件事:
在给定文本的情况下,计算“下一个最可能出现的词”。
就这么简单。
它通过数十亿甚至上万亿参数,学习语言之间的统计关系。
什么词常跟什么词一起出现,什么结构常接什么结构,什么情绪后面通常接什么表达。
当你输入一段话时,它不是在“理解你”,它是在计算概率分布。
这件事听起来很冷酷,但你必须接受这个现实。
因为一旦你明白这一点,你就知道——
AI不是创作主体,它只是语言预测机器。
二、概率预测机制(Next Token Prediction)
核心机制只有四个字:
Next Token Prediction(下一个词预测)
举个简单例子:
“夜色如水,他握紧了手中的——”
AI会计算:
在大量训练数据中,“夜色如水”后面常见什么表达?
“握紧了手中的”后面最常见接什么?
可能是:
- 刀
- 剑
- 手机
- 钥匙
它会根据概率分布,选择一个最合理、最符合上下文统计规律的词。
然后继续预测下一个词。
整篇小说,就是这样一步一步预测出来的。
它不是在构思剧情。
它是在不断做局部概率最优选择。
这也是为什么——
AI生成的文本通常“局部合理,整体平庸”。
因为它擅长局部预测,不擅长全局规划。
三、为什么AI会“看似懂逻辑”
很多人会说:“它好像真的懂剧情啊?”
不,它不懂。
它只是学习到了大量文本中的逻辑结构模式。
比如:
- 冲突 → 升级 → 爆发 → 反转
- 误会 → 分离 → 重逢
- 升级打怪 → 获得奖励
这些结构在训练数据里反复出现。
模型并没有理解“人性”。
它只是学会了“故事通常长这样”。
当概率模型足够大时,这种结构拟合能力就会变得极强。
于是产生一种错觉:
它好像真的理解因果关系。
其实不是理解,是统计模拟。
就像一个演员模仿一个人,他可以模仿得很像,但并不等于他就是那个人。
这也是我一直强调的:
不要把语言流畅误认为思想存在。
四、幻觉现象的来源
所谓“幻觉”(Hallucination),是指AI编造事实、制造不存在的内容,却表达得非常自信。
它为什么会这样?
因为它的目标不是“真实”,
它的目标是——
生成“看起来合理”的文本。
当训练数据中某种表达结构概率很高,但具体信息缺失时,它会自动补全一个最像真的版本。
比如:
- 虚构不存在的历史资料
- 编造不存在的书籍引用
- 乱造设定细节
这不是恶意,而是机制决定的。
它不知道“真假”,
它只知道“概率”。
这也是为什么——
真正工程级使用AI,一定要有人类校验层。
在优雅草写作中枢的设计理念里,我们强调一个闭环:
生成 → 检测 → 结构校验 → 人工重构
如果没有“人工重构”,AI生成就永远存在风险。
五、上下文窗口的限制
还有一个很多人忽略的问题:
上下文窗口(Context Window)。
模型一次能看到的文本是有限的。
无论窗口多大,它始终是有限的。
当小说写到几十万字时:
- 前期伏笔可能被遗忘
- 角色性格可能漂移
- 设定可能自相矛盾
因为模型不是长期记忆系统。
它只是在当前窗口内做概率预测。
这就是为什么很多人用AI写长篇时,会出现:
- 人设崩塌
- 设定冲突
- 时间线混乱
不是AI故意乱写。
是你把“全局结构控制”交给了一个只会做局部预测的系统。
这本身就是认知错误。
本章结语
如果你读到这里还觉得:
“没关系,我照样可以用AI写。”
那你已经开始理解工程思维了。
真正的工程级使用,不是迷信模型能力,
而是理解模型边界。
总结一句话:
- AI是概率引擎
- 不是叙事主体
- 它擅长局部语言生成
- 不擅长全局结构规划
- 它模拟逻辑
- 但不承担逻辑
从这一章开始,你必须把一个认知刻进脑子里:
文学的责任在人,语言的生成在机。