神经计算机AI模型大突破! 训练时间每秒120万帧,创最新记录

简介: 本周,IBM声称,其神经计算机系统达到了每秒120万帧的训练时间,创下了最新记录。IBM在AI模型训练上实现了大突破,可与最先进的技术相匹敌。网友对此表示简直不敢相信!

微信图片_20220108225319.png


在今年年初发表的一篇论文论文中,IBM详细介绍了神经计算机。


这是一种可重新配置的并行处理系统,旨在研究和开发新兴的AI算法和计算神经科学。 就在本周,该公司在神经计算机上演示了第一个应用程序:一种深度的神经进化系统


该系统将Atari 2600的硬件实现,图像预处理和AI算法结合在优化的流水线中。


实验报告得出的结果可与最先进的技术相匹敌,但更重要的是,IBM声称该系统达到了每秒120万帧的训练时间,创下了最新记录。 网友惊呼,「简直不敢相信!」 


     微信图片_20220108225322.png  


神经计算机就像是在AI计算军备竞赛中发出的一个示警信号。 据OpenAI发布的一项分析显示,从2012年到2018年,最大规模的AI培训运行中使用的计算量增长了300,000倍,是3.5个月的两倍,远远超过了摩尔定律的步伐。      


微信图片_20220108225325.png


   AlexNet到AlphaGo零:计算量增长了300,000倍 


先来了解一下IBM 的神经计算机吧


IBM神经计算机


IBM的神经计算机由432个节点组成(每16个模块卡中有27个节点),这些节点是IBM长期战略合作伙伴Xilinx的现场可编程门阵列(FPGA,设计用于制造后配置的集成电路)。       


 微信图片_20220108225327.png


 IBM神经计算机每个模块卡中有27个节点 


每个节点均有一个Xilinx Zynq单片系统(一个双核ARM A9处理器与一个FPGA在同一芯片上配对)以及1GB专用RAM芯片。   


    微信图片_20220108225329.jpg      


节点以3D网格拓扑结构排列,并与电气连接(称为穿硅通孔,这些通孔可以完全穿过硅晶圆或芯片)垂直互连。 


     微信图片_20220108225331.png    


在3D网格拓扑结构中可以看到节点数字 


在联网方面,FPGA提供模块卡之间物理通信的访问,以便建立多个不同的通信通道。 理论上讲,单个卡可以支持高达每秒432GB的传输速度,而神经计算机的网络接口可以自身调节并逐步优化, 使其匹配给定的程序。 


在论文中详细简述了神经计算机框架的共同作者写道,「我们系统的独特之处在于每个节点允许特定应用的处理器卸载,这一功能在我们所知任何规模的并行计算机上均不可用。多数性能的关键步骤已在FPGA上卸载和优化,同时ARM处理器提供了辅助支持。」 既然对神经计算机有所了解,那么IBM在神经计算机上的首次应用演示,系统是怎么达到创纪录的每秒120万帧的训练时间呢?   


   微信图片_20220108225334.gif      


我们来一探究竟


用Atari游戏测试AI


用电子游戏来做测试,是AI和机器学习研究最好的平台。 它们不仅可以随时拿来进行测试,而且大规模运行成本低。 比如在强化学习等特定领域中,为了获取奖励,AI通过与环境互动来学习最佳行为,游戏分数便是最直接的奖励。 


      微信图片_20220108225336.gif    

 

 游戏中开发的AI算法已表现出出可适应更实际的用途,例如蛋白质折叠预测研究。如果IBM神经计算机测试结果是重复的,则该系统可以用于加速这些AI算法的开发。 研究人员在神经计算机中每个卡使用了26个节点,对总共416个节点进行了实验。 Atari游戏应用程序的两个实例都是在416个FPGA中每个节点上运行,最多可扩展到832个节点并行运行的实例。 每个实例都从给定的Atari 2600游戏中提取帧,执行图像预处理,通过机器学习模型运行图像,并在游戏中执行操作。


        微信图片_20220108225338.png      

使用深度神经在FPGAs训练游戏的截图 


为了获得最高的性能,研究团队避免仿真Atari 2600,而是选择使用FPGA在更高的频率下实现控制台的功能。 


他们采用了开源MiSTer项目的框架,该项目旨在使用现代硬件重新创建控制台和街机,并将Atari 2600的处理器时钟频率从3.58 MHz提高到150 MHz,每秒产生约2514帧。 在图像预处理步骤中,IBM的应用程序将帧从彩色转换为灰色,消除了闪烁,将图像重新缩放为较小的分辨率,然后将帧堆叠为四组。 然后将它们传递到推理游戏环境的AI模型和一个子模块,该子模块通过识别AI模型预测的最大奖励来选择下一帧的动作。  


   微信图片_20220108225340.png


在五个实验过程中,IBM研究人员在神经计算机上运行了59个Atari 2600游戏。 结果表明,与其他强化学习技术相比,该方法的数据效率不高,总共需要60亿个游戏框架,但在Montezuma的Revenge and Pitfall等具有挑战性、探索性的游戏中失败了。 


在59个游戏中有30场胜出,Deep Q-network花了10天进行训练,而IBM团队只用了6分钟来训练(2亿个训练帧) 在神经计算机上运行的59个Atari 2600游戏有60亿个训练帧,在36场比赛中超过了Deep Q-network,而训练时间减少了2个数量级(2小时30分钟)。


参考链接:
https://venturebeat.com/2020/05/14/ibm-claims-its-neural-computer-achieves-record-ai-model-training-time/https://arxiv.org/pdf/2003.11178.pdfhttps://arxiv.org/pdf/2005.04536.pdf

相关文章
|
12天前
|
人工智能 自然语言处理 搜索推荐
最强AI写作助手,内置4o模型,引领AI智能问答的新纪元
随着人工智能技术的飞速进步,BKAI凭借其强大的GPT-4o模型,正在重新定义智能问答的标准。其中表现最强的AI助手神器:BKAI
|
2天前
|
机器学习/深度学习 人工智能 Android开发
揭秘AI编程:从零开始构建你的第一个机器学习模型移动应用开发之旅:从新手到专家
【8月更文挑战第29天】本文将带你走进人工智能的奇妙世界,一起探索如何从零开始构建一个机器学习模型。我们将一步步解析整个过程,包括数据收集、预处理、模型选择、训练和测试等步骤,让你对AI编程有一个全面而深入的理解。无论你是AI初学者,还是有一定基础的开发者,都能在这篇文章中找到你需要的信息和启示。让我们一起开启这段激动人心的AI编程之旅吧! 【8月更文挑战第29天】在这篇文章中,我们将探索移动应用开发的奇妙世界。无论你是刚刚踏入这个领域的新手,还是已经有一定经验的开发者,这篇文章都将为你提供有价值的信息和指导。我们将从基础开始,逐步深入到更复杂的主题,包括移动操作系统的选择、开发工具的使用、
|
11天前
|
机器学习/深度学习 人工智能 人机交互
ICML 2024:AI也会刷抖音!清华领衔发布短视频全模态理解新模型
【8月更文挑战第20天】SALMONN是由清华大学在ICML 2024发表的一种开创性的多模态模型,专为短视频全模态理解设计。它集成了预训练文本大模型与语音、音频编码器,能直接处理多样音频输入,在自动语音识别、翻译、情绪识别等任务中表现出色。SALMONN展现了令人兴奋的新能力,如翻译未训练语言和基于语音的问答。通过少样本激活微调,可进一步发掘其跨模态潜能。尽管如此,模型的计算成本和泛化能力仍是待克服的挑战。SALMONN标志着AI在具备通用听觉理解方面迈出重要一步。[论文链接: https://arxiv.org/abs/2310.13289]
36 3
|
13天前
|
人工智能
多模态AI单词助记模型体验
一文带你了解多模态AI单词助记模型的优与劣
163 1
|
4天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的正则化技术:提升模型泛化能力的关键策略探索AI的奥秘:深度学习与神经网络
【8月更文挑战第27天】在深度学习的探索旅程中,我们常常遭遇模型过拟合的困境,就像是一位探险者在茫茫林海中迷失方向。本文将作为你的指南针,指引你理解并应用正则化技术,这一强大的工具能够帮助我们的模型更好地泛化于未见数据,就如同在未知领域中找到正确的路径。我们将从简单的L1和L2正则化出发,逐步深入到更为复杂的丢弃(Dropout)和数据增强等策略,为你的深度学习之旅提供坚实的支持。
|
7天前
|
机器学习/深度学习 数据采集 人工智能
揭秘AI编程:打造你的第一个机器学习模型
【8月更文挑战第24天】本文将带你走进人工智能编程的奇妙世界,从基础理论到实践操作,一步步构建你的首个机器学习模型。我们将通过一个简单的分类问题,展示如何收集数据、选择算法、训练模型并进行评估。文章末尾附有代码示例,助你理解并实现自己的AI项目。
19 0
|
10天前
|
人工智能 弹性计算 芯片
就AI 基础设施的演进与挑战问题之AIGC场景下训练和推理的成本的问题如何解决
就AI 基础设施的演进与挑战问题之AIGC场景下训练和推理的成本的问题如何解决
|
10天前
|
机器学习/深度学习 人工智能 PyTorch
"揭秘AI绘画魔法:一键生成梦幻图像,稳定扩散模型带你开启视觉奇迹之旅!"
【8月更文挑战第21天】稳定扩散(Stable Diffusion)是基于深度学习的模型,能根据文本生成高质量图像,在AI领域备受瞩目,革新了创意产业。本文介绍稳定扩散模型原理及使用步骤:环境搭建需Python与PyTorch;获取并加载预训练模型;定义文本描述后编码成向量输入模型生成图像。此外,还可调整参数定制图像风格,或使用特定数据集进行微调。掌握这项技术将极大提升创意表现力。
25 0
|
机器学习/深度学习 人工智能 开发工具
打造AI训练基础平台!Unity推出Machine Learning Agents
但在未来,人工智能游戏选手或许将会面临新的对手:另一个人工智能。今天,全球最大的3D游戏引擎Unity宣布发布Unity Machine Learning Agents,通过将其游戏引擎与TensorFlow等机器学习框架相连接
1663 0
|
3天前
|
机器学习/深度学习 传感器 人工智能
AI技术在医疗领域的应用与挑战
【8月更文挑战第29天】人工智能(AI)技术在医疗领域的应用日益广泛,为患者提供更精准、高效的医疗服务。本文将探讨AI技术在医疗领域的应用及其面临的挑战,包括诊断辅助、药物研发、患者管理和远程监测等方面。我们将通过实际案例和数据来展示AI技术在医疗领域的优势,并讨论其未来发展的可能性和潜在问题。
下一篇
云函数