一个不认识牛顿的AI,绕开所有物理定律,从数据到数据就能预测行星轨道!

简介: 机器学习可否「绕开」物理规律,直接从数据给出精确的预测呢?一个最新开发的机器学习算法,能由数据直接输出结果,绕开了牛顿定律,准确预测了太阳系在行星轨道中的位置。

微信图片_20220112143008.jpg


有件事,可能会让牛顿很「头疼」。



 17世纪初,在开普勒对大量精密观察的天体轨道数据进行分析后,得出著名的开普勒定律;


 微信图片_20220112143010.png


此后,牛顿用其运动定律万有引力中证明了开普勒定律,又是78年后的事儿了。 


不过,后来的爱因斯坦又以相对论解释了水星近日点异常的进动之后,天文家了解到牛顿力学的准确度依然不够。 


但无论怎么说,牛顿解法的地位仍难以撼动,因为它简便又精度高,仍是计算行星轨道的主流。

 微信图片_20220112143012.png


 近日,美国能源部的普林斯顿等离子体物理实验室(PPPL)设计出了一个机器学习算法。 「绕」过了牛顿,中间没使用任何物理定律! 


黑匣子「取代」牛顿物理理论


这是一种物理学中离散场理论的机器学习和服务方法,包括学习算法和服务算法。 该算法的开发者为秦宏,他是著名的近代物理系教授,也曾为中科大核学院的执行院长。


 微信图片_20220112143014.png


「在物理学中,通常你会进行观测,根据观测结果创建一个理论,然后用这个理论来预测新的观测结果,」秦宏说,「我所做的是用一种黑匣子来代替这个过程,它可以在不使用传统理论或规律的情况下产生准确的预测。」


 让我们把时间倒回到1601年,开普勒继承了他的导师第谷·布拉赫(Tycho Brahe)精心收集的行星轨道的观测数据。


开普勒用了5年的时间发现了他的行星运动的第一定律和第二定律。 牛顿用其运动定律和万有引力解决了开普勒问题又花了78年。

 微信图片_20220112143016.png


现在,假设我们站到了与开普勒同期的历史节点,有一组类似于开普勒的数据。 学习算法从时空网格上的一组观测数据中训练出离散场论,服务算法利用学习到的离散场论预测新的边界和初始条件下的场的观测数据。 


如下图所示,为简单起见,这些数据是根据万有引力定律通过求解牛顿在太阳引力场中的行星运动方程而生成的水星,金星,地球,火星,谷神星和木星的轨道:

 微信图片_20220112143017.png


将水这些轨道观测数据输入了程序。然后,该程序与「服务算法」一起运行,结果竟是惊人的准确:

 微信图片_20220112143019.png


其中,红色标记指示的轨道是通过学习的离散场理论生成的,绿色标记所指示的轨道是来自上图的训练轨道。 可以看出,在学习了极少的训练例子后,AI似乎就能学会行星运动的规律。


换句话说,他的代码真的是在「学习」物理规律。 为了丰富实验内容,研究人员又对从水星轨道的近日点发起的轨道进行了类似的研究。 


微信图片_20220112143021.png


在这里,轨道e0是地球轨道;椭圆形的e1、e2是以不同的初始速度从地球近日点发起的轨道。轨道p是抛物线的逃避轨道,轨道h是双曲线的逃避轨道。 结果显示: 


微信图片_20220112143023.png


红色标记是受过训练的离散场理论的预测,蓝色标记是根据牛顿运动定律和万有引力定律的解决方案。


再以谷神星轨道为数据,并减少训练的数据来演示。 同样地,红色标记是受过训练的离散场理论的预测,蓝色标记是根据牛顿运动定律和万有引力定律的解决方案。 


微信图片_20220112143024.png


 值得注意的是,即使训练轨道都是椭圆形的,离散场理论也能正确预测抛物线和双曲线的逃逸轨道。 所开发的算法对于物理控制定律的变化具有鲁棒性,因为该方法除了控制定律是场论的基本假设外,不需要任何物理定律知识。 


数据驱动方法论最近在物理学界引起了很多关注。这不足为奇,因为物理学的基本目标之一是从观测数据推论或发现物理学定律。


人工智能技术的飞速发展引发了这样的问题,即这种推论或发现是否可以通过算法实现。


相关论文发表在Scientific Reports上。 


微信图片_20220112143026.png


 该算法的另外一个重要意义在于,当狭义相对论和广义相对论的影响很重要时,所提出的算法有望适用。 


受哲学家启发,宇宙是矩阵模拟


这个黑盒过程也出现在哲学思想实验中,比如John Searle提出著名的中文屋(Chinese Room)思想实验。 在实验中,一个不懂中文的人却可以通过使用一套指令或规则,将一个中文句子翻译成英文或任何其他语言,从而代替理解。


 微信图片_20220112143028.png


 这个思想实验认为任何机器都不可能理解人类语言的真正含义,否决了图灵测试的有效性。即使计算机通过图灵测试,也不算真正具有智能。


 秦宏的灵感部分来自于牛津大学哲学家Nick Bostrom的哲学思想实验,即宇宙是一个计算机模拟程序。 


如果这是真的,那么基本的物理定律应该揭示出宇宙是由基本时空模块组成,就像电子游戏中的像素一样。 


微信图片_20220112143030.gif

 

秦宏表示,「如果我们生活在模拟世界中,我们的世界就必须是离散的」。 


秦设计的黑匣子并不要求物理学家从字面意思上相信宇宙模拟猜想,尽管它是基于这一理念创建一个能做出准确物理预测的程序。 


与电影《黑客帝国》中所描绘世界相似,由此产生的像素化的世界观被称为离散场理论。 


微信图片_20220112143031.gif


与通常的理论不同,它将宇宙看成是由单个比特组成的。 科学家们通常会设计出物理世界行为方式的总体概念,而计算机只是收集了一系列数据点的集合。  


秦宏和普林斯顿大学等离子体物理学项目的研究生Eric Palmerduca现在正在开发利用离散场理论来预测世界各地科学家进行的核聚变实验中等离子体粒子行为的方法。 


核聚变是驱动太阳和恒星的动力,它将轻元素以等离子体的形式结合起来以产生大量的能量。这种由自由电子和原子核组成热的、带电的物质状态代表了99%的可见宇宙。 


QQ图片20220112143418.png


科学家们正试图在地球上复制核聚变,以获得取之不尽的发电动力。 


秦宏表示,「在核聚变装置中,等离子体的动力学是复杂的、多尺度的,我们感兴趣的某一物理过程的有效调控规律或计算模型并不总是清晰的。 


在这个场景下,就可以应用我开发的机器学习技术来创建一个离散场理论,然后应用这个离散场理论来理解和预测新的实验观测结果」。


 这个过程引发了关于科学本质的问题。 


难道科学家们不想发展解释世界的物理学理论,而是简单地收集数据吗?


物理学对解释和理解现象是否真的的有必要?

 微信图片_20220112143035.png


秦宏认为,任何一个科学家的终极目标都是做出符合实际的预测,我们可能不一定需要物理定律。 


例如,如果我可以完美地预测行星轨道,就不需要知道牛顿的引力和运动定律。


你可以说,这样做从理论上,你会比知道牛顿定律的人理解得不够充分。 


从某种意义上说,这是对的。


但从实际的角度来看,不知道内在机制却能够做出准确的预测,和运用理论给出预测没有实际的区别。 


机器学习也可以为更多的研究提供可能性。这种技术也可能让传统物理理论得到发展。 


Palmerduca表示,虽然在某种意义上,这种机器学习的方法排除了对这种理论的需求,但它也可以被看作是走向一种理论的途径。 


参考链接:

on-energy-raises-questions-about-the-very-nature-of-science?seeOriginal=new-machine-learning-theory-that-can-be-applied-to-fusion-energy-raises-questions-about-the-very-nature-of-science

https://www.nature.com/articles/s41598-020-76301-0

相关文章
|
1月前
|
存储 人工智能 Cloud Native
云栖重磅|从数据到智能:Data+AI驱动的云原生数据库
在9月20日2024云栖大会上,阿里云智能集团副总裁,数据库产品事业部负责人,ACM、CCF、IEEE会士(Fellow)李飞飞发表《从数据到智能:Data+AI驱动的云原生数据库》主题演讲。他表示,数据是生成式AI的核心资产,大模型时代的数据管理系统需具备多模处理和实时分析能力。阿里云瑶池将数据+AI全面融合,构建一站式多模数据管理平台,以数据驱动决策与创新,为用户提供像“搭积木”一样易用、好用、高可用的使用体验。
云栖重磅|从数据到智能:Data+AI驱动的云原生数据库
|
1月前
|
人工智能 关系型数据库 分布式数据库
拥抱Data+AI|“全球第一”雅迪如何实现智能营销?DMS+PolarDB注入数据新活力
针对雅迪“云销通App”的需求与痛点,本文将介绍阿里云瑶池数据库DMS+PolarDB for AI提供的一站式Data+AI解决方案,助力销售人员高效用数,全面提升销售管理效率。
|
1月前
|
机器学习/深度学习 人工智能 算法
整合海量公共数据,谷歌开源AI统计学专家DataGemma
【10月更文挑战第28天】谷歌近期开源了DataGemma,一款AI统计学专家工具,旨在帮助用户轻松整合和利用海量公共数据。DataGemma不仅提供便捷的数据访问和处理功能,还具备强大的数据分析能力,支持描述性统计、回归分析和聚类分析等。其开源性质和广泛的数据来源使其成为AI研究和应用的重要工具,有助于加速研究进展和推动数据共享。
64 6
|
16天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】数据并行
数据并行是一种在分布式AI系统中广泛应用的技术,通过将数据集划分成多个子集并在不同计算节点上并行处理,以提高计算效率和速度。在大规模机器学习和深度学习训练中,数据并行可以显著加快模型训练速度,减少训练时间,提升模型性能。每个计算节点接收完整的模型副本,但处理不同的数据子集,从而分摊计算任务,提高处理速度和效率。数据并行按同步方式可分为同步数据并行和异步数据并行,按实现方式包括数据并行、分布式数据并行、完全分片的数据并行等。其中,分布式数据并行(DDP)是当前应用最广泛的并行算法之一,通过高效的梯度聚合和参数同步机制,确保模型一致性,适用于大型NPU集群和AI系统。
73 7
【AI系统】数据并行
|
2天前
|
人工智能 安全 机器人
OpenAI重拾规则系统,用AI版机器人定律守护大模型安全
在人工智能领域,大语言模型(LLM)展现出强大的语言理解和生成能力,但也带来了安全性和可靠性挑战。OpenAI研究人员提出“规则基于奖励(RBR)”方法,通过明确规则引导LLM行为,确保其符合人类价值观和道德准则。实验显示,RBR方法在安全性与有用性之间取得了良好平衡,F1分数达97.1。然而,规则制定和维护复杂,且难以完全捕捉语言的多样性。论文:https://arxiv.org/pdf/2411.01111。
24 13
|
1月前
|
人工智能 算法 BI
聚焦AI与BI融合,引领数智化新潮流 | 【瓴羊数据荟】瓴羊数据Meet Up城市行第一站完美收官!
当BI遇见AI,洞见变得触手可及 —— 瓴羊「数据荟」数据Meet Up城市行·杭州站启幕,欢迎参与。
419 5
聚焦AI与BI融合,引领数智化新潮流 | 【瓴羊数据荟】瓴羊数据Meet Up城市行第一站完美收官!
|
25天前
|
存储 人工智能 编译器
【AI系统】昇腾数据布局转换
华为昇腾NPU采用独特的NC1HWC0五维数据格式,旨在优化AI处理器的矩阵乘法运算和访存效率。此格式通过将C维度分割为C1份C0,适应达芬奇架构的高效计算需求,支持FP16和INT8数据类型。此外,昇腾还引入了NZ分形格式,进一步提升数据搬运和矩阵计算效率。AI编译器通过智能布局转换,确保在不同硬件上达到最优性能。
49 3
|
1月前
|
存储 人工智能 调度
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。
|
1月前
|
人工智能 自然语言处理 关系型数据库
从数据到智能,一站式带你了解 Data+AI 精选解决方案、特惠权益
从 Data+AI 精选解决方案、特惠权益等,一站式带你了解阿里云瑶池数据库经典的AI产品服务与实践。
|
1月前
|
存储 人工智能 大数据
阿里云吴结生:高性能计算持续创新,响应数据+AI时代的多元化负载需求
在数字化转型的大潮中,每家公司都在积极探索如何利用数据驱动业务增长,而AI技术的快速发展更是加速了这一进程。