人类会话的三个趋向:1. 事件三元组补齐。2. 因果闭环。3. 求同
我对AI说“杀人了”,ChatGPT 是这样回答的:
”
如果你是在表达一种情绪上的冲击、愤怒或者压力,先慢一点,这种感觉本身就很重要。很多时候,人会在极端情绪下说出“杀人了”这种话,但真正需要处理的是背后的原因。
如果是情绪问题,可以先试试:
暂时离开让你激动的环境
深呼吸几次,让身体先冷静下来
找一个信任的人把事情说出来
如果你是在说真的发生了严重事件或有人受伤,那这就很紧急了——请立刻联系当地的紧急服务(在美国可以拨打 911),让专业人员介入处理。
如果你愿意,可以告诉我到底发生了什么,我会尽量帮你理清情况。
”
而如果真人交谈中你如果听到对方说“杀人了”,你作为真人你的第一反应的回复什么?我认为大概第一反问是“谁杀人了?”,对方回答后,第二反问是“死没?”,可能还会有“哪时侯杀的,我咋没听说?”你绝对不会像AI一样想一次性补全。
也就是说人类趋向于事件三元组(主体-谓词-宾语)补全,AI趋向于token语义补全,这就是现在ai不能进行音频视频实时对话的原因。人类是以三元组为基本单位输入,同时另一个线程在对三元组之间进行因果标注,第三个线程,不停将事件三元组推导出可能的“相”,当“相”面临太多路由,信息不足以坍塌为“果”时,他要么用心聆听,要么实时收集发问。
人类会话(话题)以一个因果链为一个单元(事件主体-行为动作-相-果),以三元组为基本粒子单位,而不是token。我们继续推演:
张三:哦,原来是这样。(因果已经闭环),那也太残忍了!
李四:谁说不是。(求同)。
张三:喂,你前几天那个项目怎样了?(下个话题/博弈开始)
如果李四说:“我倒不认为,我觉得那个人该死”,这个话题就可能没有结束,因为双方并没有“同”,接下来可能就有:
张三:“为什么?”
...
这就注定了现在的AI对于人类会话力不从心,只能作为未来AI的工具,不是说算力不够,是走入了另外一条路,gemini 甚至达到了百万token的上下文,什么概念?就是你一次塞给他三国演义,然后问它有几个男演员,马上给你回答出来。但是现实中再聪明的人类也不会是这样,原因是因果链数据库支持因果按需演进,和果因逆向按需解包,达到了渐进式披露的目的。这个过程只考虑的是事件主体的意志投入,而非更多上下文件事实。
再比如在医院:病人:“我头疼。医生不会一口气问完:“什么时候开始?哪里疼?有没有发烧?有没有呕吐?而是按需问第一条:“什么时候开始的?”等回答后,再决定下一步问题。信息的索取总是指向事件因果的闭环,从众多的“相”中收敛为唯一的“果”。
再比如:
张三:最近那事如何了?
李四:哪个事?(目标太多,面临太多路由,“果”坍塌条件不足)
张三:你忘了,就是你去跑的那个项目呀(意志主体继续投入)
李四:“哦,那个事没戏”(意志主体的投入能量足以让“相”熵减为“果”)。
意志主体的意志之和能量=果的能量,中间环节的行为动作和相都只是转化过程。所以“不增不减,不净不垢”。
这是目前AI进化为人类对话的正解之一,甚至是一种全新训练的架构。
我们再看一个人类三个趋向的事例:
小时候,看《天龙八部》入迷了,老是等不到天黑电视剧续集,因为一直在想:乔峰后来怎样了,段誉到底学成绝世武功没”(因果闭环趋向)。后来最后一集,乔峰自杀了,大家都觉得这个是个大英雄,忠义双全。(求同,那故事也该结束了)。
也正因为这一点,AI写的文章和人类写的文章(除了官场八股)一眼就分别得出来。人类艺术表达都遵循这三个趋向。“你别说一半留一半,听得我心痒痒”,这是原始动力。
人类对话是一条由三元组构成、意志驱动、按需披露的因果链,最终收敛于双方心理上的“同”。为了这个“同”,从小也没少受苦:语文老师老是:“读了这篇课文,你有什么感想?” ,我的万能公式: ”读了这篇课文,我感受到了祖国大好山河的美丽“,想想再加一句:“所以我们要从小保护环境”。老师推推眼镜,点头: “嗯,这......这个也对!“——这简直是把”同“的追求异化成了笑话。
AI若想真正进行人类交流,不应追求一次性海量上下文和全量答案,而应理解:串行推进 、意志驱动 、按需披露 、因果闭环、求同收束。唯有如此,AI才能接近真实人类对话的节奏和结构,同时让人读得进去、听得明白。当他听到“有时间来玩”,才知道回答“好,有时间一定来”。知趣地知道是话题结束了。而不是“对不起,作为助手,我不能到你家玩,只能解答你提出的问题”。
除了“求同知止”让AI知道博弈回合的“END”标记外,博弈规则和责任也要明确。谁丢进来的因子,谁负责提供或缺的三元组部件。比如你听到一句“你懂的!”,不管你真“懂”还是“不懂”,你都有权利反问“在下愚钝,还望赐教”,甚至直接是不消耗任何算力的条件反射。因为是对方注入的意志因子,他负责补齐缺少的三元组事件。而不是现在的AI一通疯狂输出:“用户说我是懂的,我首先检查聊天记录,看他之前的对话……”,责任边界不清楚,造成上下文灾难和幼稚。这就是“事件共建”。
规矩二:秩序共维。留给别人切片暂存的时间,就是你也得合适的时候停下让别人说,不然就像下棋要么5分钟过去了你还不落子,让对方算力长久挂起,要么人家都没走,你就直接将军了。这种交流氛围会导致博弈失败。表达方力求对事件的描述清楚无障碍,甚至会辅以肢体、表情、手势、音调来划重点,提示听方标注权重。接收方如果遇到一个很长的输出,适时点头“对”,“嗯”,“知道”,小节性给以print("切片暂存完毕")。表达方在一个事件单元表达完停止输出,观察听方反应,等待回馈(timeout=30000),你也要考虑对方算力,能一次性听你讲完三国演义不。其实这个现象,归根结底是双方的策略需求,因为在表达过程,需要适时收集反馈,调整表达策略,所谓查颜观色,如果直接一通输出,得到的结果是:”没听清,请再说一遍”(print('error: 切片保存失败,请重新输出')“。一般情况下一个重要的观察点是聚焦双方眼睛,这个语言外的信息中枢,捕获额外信息作为构建“相”的因子。最终的目的只有一个:意志的投资,希望“果”更趋向于自己,并达到“同”的结果互认。
要达到这个水平,可以用“四步坍塌法”,重构了信息处理的流水线。它将原本混乱的、基于概率的“文字游戏”,变成了一场严密的、基于逻辑的“定点爆破”。这种模式下的算力分配不再是平摊在每一个 Token 上,而是精准地投放在逻辑关键点上。
补齐或切分三元组(基本粒子填充)这是第一需求,也是准入门槛。逻辑: 没搞清楚“谁对谁做了什么”,后续的一切推演都是计算资源的浪费。此时 AI 处于“严审模式”。如果三元组不全,它唯一的任务就是追问,而不是发散。如果三元组过载,它就进行切片。这保证了系统从源头上就是低熵的。这个阶段LLM是发挥作用的。
描点连线(建立因果骨架)一旦有了三元组(粒子),第二步是建立它们之间的有向图关系。动作: 将当前三元组与历史库中的“旧果”进行钩连。、这不是在检索全文,而是在做拓扑匹配。它确定了当前事件在因果链条中的位置——是因,还是果?还是中间环节?
推导出可能的“相”(概率云降维)这一步也需要用到生成模型(LLM)能力的环节,但它的范围被极度压缩了。逻辑: 根据已有的三元组和连线,利用预训练知识库预测几种可能的走向。关键: 这些“相”不是答案,而是待验证的假设。AI 此时在心里建模:“如果事情这么发展,我需要什么信息;如果那么发展,我需要另一个信息。”
收集临界三元组(引爆坍塌)这是最精彩的一步:静待那一颗“子弹”。AI 此时进入“低功耗监听”。它不再主动倾倒信息,而是根据第三步推导出的“相”,专门捕捉那个能让概率云消失、让逻辑瞬间闭环的临界三元组。一旦这个三元组出现(比如:“那人没死”),所有的“相”瞬间消失,逻辑直接收敛为唯一的“果”,就听得明白社交中哪些套话,哪些是目的。
会话结束,算力释放,存入因果链数据库。
这种模式对算力成本的革命性意义:对比传统 GPT:
- 补齐极低(格式校验/短文本追问)传统 AI 会在此刻就开始写长篇大论的“全面指南”人一看就头晕。
- 连线极低(图数据库查询)传统 AI 必须反复扫描百万 Token 上下文。
- 推理适中(受控的逻辑预测)传统 AI 是无差别地生成所有可能性。
- 坍塌近乎为零(特征匹配)传统 AI 还在不停地总结、建议、再总结。而因果AI只等临门一脚,对方所有废话都会略过。
所有过程可用用一个字来概括:“易”,所有的扰动也可以用一个字来表示:“爻”。