内存计算为边缘人工智能提供动力,并加速制造业效率

简介: 内存计算为边缘人工智能提供动力,并加速制造业效率

  在过去几十年里,工厂的效率取得了巨大的进步,逐渐地利用智能机器人和其他连接设备来提高生产效率。如今,制造业的下一波转型即将到来,这要归功于边缘人工智能处理技术的进步,使工厂能够将计算机视觉(CV)与人工智能结合起来,从而提高生产量,更快速、更高效、更具成本效益地制造产品。

工业自动化的不同领域

     工厂部署人工智能(AI)和深度学习(DL)解决方案,实时检查生产线上的产品,这包括检查谷物盒子的瑕疵,检查汽车是否有划痕等。机器不仅可以更准确地检测生产线上的异常,AI还使它们能够实时做出智能决策。这得益于极其强大的边缘人工智能解决方案,它们不再需要将数据发送到云端进行处理,而是可以在边缘准确处理大量信息,实现极低延迟的深度神经网络(DNN)处理。

     然而,直到最近,人工智能的全部潜力一直受到多种因素的限制。其中一个挑战是边缘设备的计算能力有限。这限制了制造和工厂自动化中所需的推理处理,即神经网络在处理真实世界数据时执行不同功能的能力。幸运的是,最近边缘人工智能处理的进展已经被开发出来,以准确定位和解决这些确切的挑战。

     在解决这些挑战方面,一种方法显示出了令人难以置信的潜力,那就是模拟计算内存(CIM)。边缘AI处理需要满足小型尺寸、低延迟和低功耗的硅,而数字解决方案如CPU和GPU已经无法满足这些要求。CIM通过利用闪存存储器进行神经网络权重存储和计算,消除了AI推理处理期间系统组件之间的数据移动,从而实现了高性能和低延迟,并大大提高了推理操作的功耗效率。

     此外,模拟CIM方法利用高密度闪存存储器,实现了紧凑的单芯片处理器设计。这使得模拟CIM处理器可以用于各种尺寸的机器,无论是进行安全检查的小型无人机还是生产线上的机器视觉系统。而且,模拟CIM处理器使用成熟的半导体工艺节点生产,具有更好的供应链可用性和更低的器件成本,相比之下,数字解决方案则使用最新的半导体工艺节点。

     最重要的是,模拟CIM大大降低了功耗,使其比数字系统高出10倍的效率,同时仍然实现了极高性能的计算。模拟计算是AI处理的理想方法,因为它能够在毫秒级的延迟下以更低的功耗实现更高的性能。模拟计算技术的极端功耗效率将使产品设计师能够在小型边缘设备中解锁出色的新功能,并有助于减少各种基于AI的制造应用中的成本和大量的能源浪费。

     随着工厂自动化需求的不断增长,某些处理器中更强大的人工智能和深度学习能力将提高日常操作的准确性和效率。这将为当今工厂引入更多“智能”应用打开大门,从协作机器人到自动送货无人机,再到自动驾驶叉车等。没有现有的功耗、成本和性能限制,创新的可能性是无限的。


首个存内计算开发者社区-CSDN存内计算

全球首个存内计算社区创立,涵盖最丰富的存内计算内容,以存内计算技术为核心,绝无仅有存内技术开源内容,囊括云/边/端侧商业化应用解析以及新技术趋势洞察等, 邀请业内大咖定期举办线下存内workshop,实战演练体验前沿架构;从理论到实践,做为最佳窗口,存内计算让你触手可及。

传送门https://bbs.csdn.net/forums/computinginmemory?category=10003

社区最新活动存内计算大使招募中,享受社区资源倾斜,打造属于你的个人品牌,点击下方一键加入。

https://bbs.csdn.net/topics/617915760

首个存内计算开发者社区,0门槛新人加入,发文享积分兑超值礼品;

成为存内计算大使,享受资源支持与激励,打造亮眼个人品牌,共同引流存内计算潮流。

相关文章
|
18天前
|
缓存 异构计算
LLM 内存需求计算方式
GPU上大语言模型的内存主要由模型权重和KV缓存构成。70亿参数模型以16位精度加载时,权重占约14GB;KV缓存则随批大小和序列长度线性增长,显著影响显存使用,限制推理吞吐与长上下文处理。
114 11
|
30天前
|
人工智能 并行计算 PyTorch
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
102 4
|
8月前
|
存储 分布式计算 监控
阿里云服务器实例经济型e、通用算力型u1、计算型c8i、通用型g8i、内存型r8i详解与选择策略
在阿里云现在的活动中,可选的云服务器实例规格主要有经济型e、通用算力型u1、计算型c8i、通用型g8i、内存型r8i实例,虽然阿里云在活动中提供了多种不同规格的云服务器实例,以满足不同用户和应用场景的需求。但是有的用户并不清楚他们的性能如何,应该如何选择。本文将详细介绍阿里云服务器中的经济型e、通用算力型u1、计算型c8i、通用型g8i、内存型r8i实例的性能、适用场景及选择参考,帮助用户根据自身需求做出更加精准的选择。
|
3月前
|
存储 机器学习/深度学习 缓存
阿里云九代云服务器怎么样?计算型c9i、通用型g9i、内存型r9i实例介绍
阿里云第9代云服务器主要实例规格包括计算型c9i、通用型g9i、内存型r9i,本文将为大家介绍阿里云九代云服务器中的计算型c9i、通用型g9i、内存型r9i实例的主要性能特点,并分享最新的活动价格信息,以供参考。
327 1
|
存储 安全 数据库
阿里云服务器计算型、通用型、内存型主要实例规格性能特点和适用场景汇总
阿里云服务器ECS计算型、通用型、内存型规格族属于独享型云服务器,在高负载不会出现计算资源争夺现象,因为每一个vCPU都对应一个Intel ® Xeon ®处理器核心的超线程,具有性能稳定且资源独享的特点。本文为大家整理汇总了阿里云服务器ECS计算型、通用型、内存型主要实例规格族具体实例规格有哪些,各个实例规格的性能特点和主要适用场景。
阿里云服务器计算型、通用型、内存型主要实例规格性能特点和适用场景汇总
|
8月前
|
存储 编解码 安全
阿里云高性能企业级甄选Intel第八代计算型c8i、通用型g8i和内存型r8i实例简介
计算型c8i、通用型g8i和内存型r8i实例是阿里云推出的高性能企业级甄选Intel第八代云服务器实例,采用CIPU+飞天技术架构,搭载最新的Intel 第五代至强可扩展处理器(代号EMR),性能进一步大幅提升,同时拥有AMX加持的AI能力增强,并在全球范围率先支持TDX机密虚拟机能力,实现了AI增强和全面安全防护的两大特色优势。本文将为您介绍这三个实例规格的性能、适用场景及最新活动价格以及选择指南,以供选择参考。
294 18
|
9月前
|
存储 缓存 安全
阿里云服务器计算型c7/c8y/c8i,通用型g7/g8y/g8i,内存型r7/r8y/r8i区别及选择参考
为了满足不同企业级用户的多样化需求,阿里云在当下的活动中推出了多款计算型、通用型和内存型的云服务器实例,包括计算型c7/c8y/c8i、通用型g7/g8y/g8i以及内存型r7/r8y/r8i等。这些实例各具特色,适用于不同的应用场景和业务需求。本文将为您详细解析这些实例的区别,以及选择参考,帮助您根据自己的需求选择合适的阿里云服务器实例。
|
机器学习/深度学习 人工智能 算法
探索未来技术:量子计算与人工智能的融合
随着科技的飞速发展,量子计算和人工智能已成为引领未来的两大关键技术。本文将深入探讨量子计算的原理及其对传统计算模式的挑战,以及人工智能如何借助量子计算实现质的飞跃。通过分析两者的融合点,我们将预见到一个全新的技术革命,它不仅会改变数据处理方法,还将在多个领域内引发创新浪潮。文章旨在为读者提供一个关于未来技术趋势的宏观视角,同时指出当前面临的挑战和潜在的解决方案。
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与情感计算:AI如何理解人类情感
人工智能与情感计算:AI如何理解人类情感
1615 20

热门文章

最新文章

下一篇
开通oss服务