克雷研究所100万美元奖金要归AI了,数学界规则大改,未来数学家如何应对海量猜想

简介: 【6月更文挑战第1天】AI在数学领域的突破正在改写数学研究规则。伦敦数学科学研究所的AI预测椭圆曲线秩,与克雷研究所的千禧年问题相关,显示AI在高风险数学问题上的潜力。AI还发现了纽结理论中的新关系,并能生成数学公式的猜想。尽管AI有助于发现模式和猜想,但它仍依赖于数学家的直觉来判断猜想的重要性。未来,AI将成为数学家的工具,加速研究进程,但人类的创造力和洞察力仍是关键。

数学,作为人类智慧的结晶,一直以来都被认为是人类创造力和直觉的领域。然而,近年来人工智能(AI)的发展正在挑战这一观念,尤其是在数学领域。本文将探讨AI如何改变数学研究的格局,以及未来数学家将如何应对这一变革。

2017年,伦敦数学科学研究所的研究人员开始将机器学习应用于数学数据,这在当时可能只被视为一种业余爱好。然而,在COVID-19疫情期间,他们取得了一项重大突破:他们发现简单的AI分类器可以预测椭圆曲线的秩,这是衡量其复杂性的重要指标。椭圆曲线是数论的基本概念,理解它们的统计特性是解决克雷研究所提出的七个千禧年问题之一的关键步骤,这些问题每个都带有100万美元的奖金。

这一发现震惊了数学界,因为很少有人预料到AI会在如此高风险的领域取得进展。然而,这只是AI在数学领域取得的众多成就之一。几年前,一个名为拉马努金机器的计算机程序通过搜索连分数族,生成了基本常数(如π和e)的新公式。其中一些猜想已经被证明,而另一些仍然开放。

另一个例子是纽结理论,这是拓扑学的一个分支,研究的是假设的弦在两端粘合之前是如何纠缠的。伦敦谷歌DeepMind的研究人员通过训练神经网络处理大量不同纽结的数据,发现了纽结的代数结构和几何结构之间的意外关系。

那么,AI是如何在那些被认为需要人类创造力的数学领域产生影响的呢?首先,数学中没有巧合。在现实世界的实验中,假阴性和假阳性很常见,但在数学中,一个反例就足以推翻一个猜想。例如,波利亚猜想认为,在任何给定整数以下,大多数整数的素因子数量为奇数。然而,1960年发现该猜想不适用于906,180,359这个数,从而推翻了该猜想。

其次,AI可以训练的数学数据很便宜。素数、纽结和其他许多类型的数学对象非常丰富。在线整数序列百科全书(OEIS)包含了近375,000个序列,从熟悉的斐波那契序列(1, 1, 2, 3, 5, 8, 13...)到令人生畏的忙碌海狸序列(0, 1, 4, 6, 13...),后者的增长速度超过了任何可计算函数。科学家已经在使用机器学习工具搜索OEIS数据库,以发现意想不到的关系。

AI可以帮助我们发现模式并提出猜想,但并非所有猜想都是平等的。它们还需要推动我们对数学的理解。在1940年的论文《一个数学家的道歉》中,G.H.哈代解释说,一个好的定理应该是许多数学构造的组成部分,用于证明许多不同类型的定理。换句话说,最好的定理增加了发现新定理的可能性。帮助我们开拓新的数学前沿的猜想比那些提供较少见解的猜想更好。然而,区分它们需要对领域本身的发展方向有直觉。这种对更广泛背景的把握在很长一段时间内都将超出AI的能力范围,因此技术将难以发现重要的猜想。

然而,尽管存在这些限制,AI工具在数学界更广泛的应用也有很多好处。AI可以提供决定性的优势,开辟新的研究领域。主流数学期刊也应该发表更多的猜想。数学中的一些最重要的问题,如费马大定理、黎曼假设、希尔伯特的23个问题和拉马努金的许多恒等式,以及无数不太著名的猜想,都塑造了该领域的发展方向。猜想通过为我们指明正确的方向来加快研究速度。关于猜想的期刊文章,由数据或启发式论证支持,将加速发现。

去年,谷歌DeepMind的研究人员预测了220万个新的晶体结构。然而,目前尚不清楚这些潜在的新材料中有多少是稳定的,可以被合成,并且具有实际应用。目前,这主要是人类研究人员的任务,他们对材料科学的更广泛背景有很好的理解。同样,数学家的想象力和直觉将被需要,以理解AI工具的输出。因此,AI只会作为人类创造力的催化剂,而不是替代品。

文章链接:https://www.nature.com/articles/d41586-024-01413-w

相关文章
谷歌DeepMind研究再登Nature封面,隐形水印让AI无所遁形
近日,谷歌DeepMind团队在《自然》期刊上发表了一项名为SynthID-Text的研究成果。该方法通过引入隐形水印,为大型语言模型(LLM)生成的文本添加统计签名,从而实现AI生成文本的准确识别和追踪。SynthID-Text采用独特的Tournament采样算法,在保持文本质量的同时嵌入水印,显著提高了水印检测率。实验结果显示,该方法在多个LLM中表现出色,具有广泛的应用潜力。论文地址:https://www.nature.com/articles/s41586-024-08025-4。
87 26
【01】人形机器人研究试验-被有些网友痛骂“工业垃圾”“人工智障”上春晚的人形AI机器人-宇树科技机器人到底怎么样??-本系列优雅草卓伊凡亲自尝试下人形机器人的制造-从0开始学习并且制作机器人-可以跟随卓伊凡
【01】人形机器人研究试验-被有些网友痛骂“工业垃圾”“人工智障”上春晚的人形AI机器人-宇树科技机器人到底怎么样??-本系列优雅草卓伊凡亲自尝试下人形机器人的制造-从0开始学习并且制作机器人-可以跟随卓伊凡
27 1
【01】人形机器人研究试验-被有些网友痛骂“工业垃圾”“人工智障”上春晚的人形AI机器人-宇树科技机器人到底怎么样??-本系列优雅草卓伊凡亲自尝试下人形机器人的制造-从0开始学习并且制作机器人-可以跟随卓伊凡
通古大模型:古籍研究者狂喜!华南理工开源文言文GPT:AI自动断句+写诗翻译,24亿语料喂出来的学术神器
通古大模型由华南理工大学开发,专注于古籍文言文处理,具备强大的古文句读、文白翻译和诗词创作功能。
77 11
通古大模型:古籍研究者狂喜!华南理工开源文言文GPT:AI自动断句+写诗翻译,24亿语料喂出来的学术神器
OpenDeepResearcher:开源 AI 研究工具,自动完成搜索、评估、提取和生成报告
OpenDeepResearcher 是一款开源 AI 研究工具,支持异步处理、去重功能和 LLM 驱动的决策,帮助用户高效完成复杂的信息查询和分析任务。
174 18
OpenDeepResearcher:开源 AI 研究工具,自动完成搜索、评估、提取和生成报告
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
73 1
Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈
哈佛大学和麻省理工学院的研究人员最近发布了一项重磅研究,对Scaling Law在低精度量化中的应用提出严重质疑。研究表明,随着训练数据增加,低精度量化带来的性能损失也增大,且与模型大小无关。这挑战了通过增加规模提升性能的传统观点,提醒我们在追求效率时不能忽视性能损失。该研究结果在AI圈内引发广泛讨论,提示未来需探索其他方法来提高模型效率,如混合精度训练、模型压缩及新型硬件架构。论文地址:https://arxiv.org/pdf/2411.04330。
47 11
Transformer打破三十年数学猜想!Meta研究者用AI给出反例,算法杀手攻克数学难题
《PatternBoost: Constructions in Mathematics with a Little Help from AI》提出了一种结合传统搜索算法和Transformer神经网络的PatternBoost算法,通过局部搜索和全局优化交替进行,成功应用于组合数学问题。该算法在图论中的Ramsey数研究中找到了更小的反例,推翻了一个30年的猜想,展示了AI在数学研究中的巨大潜力,但也面临可解释性和通用性的挑战。论文地址:https://arxiv.org/abs/2411.00566
89 13
首个全球AI出口管制规则出台,中国AI路在何方?
在CES 2025上,英伟达宣布Blackwell芯片全面投产,GB200芯片为大语言模型推理带来30倍性能提升,成本和能耗降低25倍。然而,1月13日白宫公布的“临时最终规则”对AI芯片出口进行严格限制,引发市场悲观情绪。新规将全球分为三级,中国大陆被列为Tier 3,面临先进芯片进口禁令和模型权重管控,加剧了中国AI产业的挑战。尽管如此,华为云、科大讯飞等企业通过自主创新,如昇腾AI云服务,提供了稳定可靠的算力解决方案,展现了中国科技企业的韧性和创新精神,推动大模型生态的发展。
60 16
AI自己长出了类似大脑的脑叶?新研究揭示LLM特征的惊人几何结构
近年来,大型语言模型(LLM)的内部运作机制备受关注。麻省理工学院的研究人员在论文《The Geometry of Concepts: Sparse Autoencoder Feature Structure》中,利用稀疏自编码器(SAE)分析LLM的激活空间,揭示了其丰富的几何结构。研究发现,特征在原子、大脑和星系三个尺度上展现出不同的结构,包括晶体结构、中尺度模块化结构和大尺度点云结构。这些发现不仅有助于理解LLM的工作原理,还可能对模型优化和其他领域产生重要影响。
95 25
OpenAI重拾规则系统,用AI版机器人定律守护大模型安全
在人工智能领域,大语言模型(LLM)展现出强大的语言理解和生成能力,但也带来了安全性和可靠性挑战。OpenAI研究人员提出“规则基于奖励(RBR)”方法,通过明确规则引导LLM行为,确保其符合人类价值观和道德准则。实验显示,RBR方法在安全性与有用性之间取得了良好平衡,F1分数达97.1。然而,规则制定和维护复杂,且难以完全捕捉语言的多样性。论文:https://arxiv.org/pdf/2411.01111。
130 13

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等