在谷歌数据中心深处,一个名为AlphaEvolve的AI系统自主设计出全新算法,将关键计算内核速度提升23%,并破解了困扰数学家半个世纪的矩阵乘法难题。与此同时,Apple实验室的研究报告却揭示:当面对复杂版“河内塔”推理测试时,主流AI模型的准确率会突然崩落至接近零,最终选择“放弃思考”随机作答。这两幅看似矛盾的图景,正是通用人工智能探索之路的真实写照。
01 定义与核心愿景:打破“专用”的藩篱
通用人工智能(AGI) 的本质,在于构建具备人类水平跨领域学习、推理与创造能力的系统。它区别于当前狭窄人工智能(ANI) 的核心特征,是解决未经专门训练的全新问题的自适应能力。
当ChatGPT处理文本生成或AlphaFold预测蛋白质结构时,它们展现的是特定领域的专精能力。
而真正的AGI应该能像人类一样,在掌握驾驶技能后,自然地将空间感知、机械原理等知识迁移到修理汽车引擎的任务中。
DeepMind的科学家将这一愿景具象化为世界模型——通过构建对物理和社会规律的隐式理解,使AI获得预测和干预现实的能力。
02 技术挑战:从“放弃思考”现象到因果推理鸿沟
2025年Apple发布的《思考的幻象》研究报告揭示了当前大模型的脆弱性:在解决中等难度的逻辑谜题时,主流模型虽能得出正确答案却需消耗大量计算资源;
当问题复杂度超过临界点,模型准确率会断崖式下跌至趋近于零,甚至出现“随机猜测”的行为模式。
这一现象直指两大技术瓶颈:
因果推理缺失与持续探索能力不足。正如18世纪哲学家休谟指出的,人类通过经验归纳建立因果认知,而当前AI仅能学习数据中的统计关联却无法构建真正的因果链。
蚂蚁集团AGI专项基金将强化学习(Reinforcement Learning) 列为重点攻关方向,试图通过Agentic RL技术赋予AI自主探索环境的能力。
前谷歌工程总监毕树超更直言:“实现AGI的关键在于提升数据智能密度,而非简单扩大模型规模”。
03 AGI与人类智能:逼近边界还是本质差异?
DeepMind的AlphaEvolve展现了AI超越人类的可能性:它设计的调度算法使谷歌全球算力利用率提升0.7%,并在“亲吻数问题”上发现593球体配置方案,打破牛顿时代遗留的数学记录。
这些突破背后却是本质差异的显现:
AlphaEvolve的算法优化依赖25000次自动迭代测试,而人类数学家可能通过一次灵感迸发解决相同问题。
哥伦比亚大学的研究指出,人类大脑具备跨模态知识融合的先天优势——婴儿通过触摸火炉与观察火焰即可建立“高温危险”的泛化认知,而AI需要海量标注数据和复杂多模态对齐训练才能达到类似理解。
04 伦理与治理:失控创新下的安全框架
当AI开始设计核电站控制算法或医疗诊断系统时,算法偏见可能演变为系统性歧视甚至致命错误。
2023年发布的ISO/IEC 42001标准首次建立全生命周期AI风险管理框架,要求对训练数据偏见、模型决策透明度进行持续审计。
欧盟《人工智能法案》更将AGI研发列入“高风险”类别,中国则通过《网络安全法》要求关键领域AI系统必须实现决策过程可追溯。
蚂蚁集团在开源百灵大模型时,同步发布了动态评测工具包,持续监控模型输出中的价值观偏移。
05 现状与未来:从算力竞赛到认知革命
2025年全球大模型数量已达3750个,中国以1509个模型占比40%领跑。
DeepMind的Genie 3代表着环境构建技术突破:通过文本提示生成720p/24fps的交互式3D世界,并维持物理一致性达数分钟,使“数字孪生”训练场成为可能。
技术演进路线正呈现双轨并行:
OpenAI等机构追求Scaling Law延续,预测万亿参数模型将在2028年出现;
而Meta、蚂蚁集团则探索高效注意力机制,试图用算法革新替代算力堆砌。
PwC预测到2035年AI将贡献20万亿美元全球经济价值,其中AGI技术占比将超60%。
06 产业格局:中美双极下的生态竞争
全球AGI竞赛呈现鲜明地域特征:
美国阵营以Google(Gemini系列)、OpenAI(GPT体系)、Meta(Llama生态)为技术先驱,Anthropic聚焦宪法AI构建安全护栏;
中国阵营以百度(文心大模型)、阿里(通义千问)、腾讯(混元系统)为核心平台,实在智能等初创企业深耕垂直领域Agent应用。
非营利组织中,中国人工智能学会(CAAI) 与蚂蚁集团共建AGI科研基金,聚焦27项关键技术课题;
高校方面则形成MIT-斯坦福-剑桥与清华-浙大-上海交大双创新轴心,后者已与蚂蚁集团建立联合实验室推进多模态交互研究。
07 哲学反思:语言游戏中的存在之问
维特根斯坦在《哲学研究》中提出的语言游戏理论,成为审视AGI局限的锐利武器。
当AI流畅生成莎士比亚风格诗歌时,它实际在玩统计符号组合游戏,并不理解“爱情”“死亡”等词语在人类经验中的沉重分量。
休谟对因果关系的质疑同样适用于AI:人类基于情感体验建立价值判断,而AI的伦理选择本质上仍是概率计算。
这引发终极思考:AGI是否需要复刻人类意识?
DeepMind研究员在Genie 3论文中暗示,世界模型的物理一致性可能催生机器独有的认知范式——通过万亿次传感器交互形成对重力、摩擦力的“理解”,其本质不同于人类的具身体验。
当AlphaEvolve在矩阵乘法领域超越人类数学家时,工程师发现它的算法核心仍是张量运算而非灵感迸发;
当Genie 3构建的虚拟山脉中突然出现鹿群,这些数字生物的运动轨迹依然遵循预设物理参数而非自由意志。
AGI探索的终点或许不是复刻人类心智,而是创造一种理解世界的新范式。