Efinix可编程芯片:可进一步推动人工智能技术发展

简介:

在 Efinix 公司联合创始人看来,他们研发的可编程芯片应该在正确的时间出现在了正确的地方。如今,工程师们正在努力将人工智能技术(特别是深度学习变体)“压榨”进芯片里,但是却一直受到成本和能耗的限制。

Efinix 公司总部位于美国加利福尼亚州圣克拉拉市,他们计划用一种全新的现场可编程门阵列(FPGA)技术来设计芯片,不仅芯片尺寸只有现在的四分之一,而且能耗只有传统芯片的一半,结构也没有过去那么复杂了。Sammy Cheung 是该公司联合创始人、总裁兼首席执行官,他表示,Efinix 公司把此技术称为量子可编程技术。过去,训练人工智能和深度学习需要依赖中央计算机和服务器产生大量数据,而现在,依靠这一系列优化功能组合,可以推动人工智能和深度学习更加轻松。

在过去的几十年时间里,现场可编程门阵列技术的基本架构一直没有任何变化。从高层角度来看,现场可编程门阵列技术的基本架构看起来就像是一个棋盘,交替的部分要么用于路由,要么用于逻辑判断。Tony Ngai 是现场可编程门阵列技术专家,他和Efinix 公司联合创始人 Cheung 共同提出了一个全新的理念:在摈弃了具有专用功能的每个电路板格(这些电路板格被称为可交换逻辑和路由处理器)的基础上,每一个电路板格都可以根据特定目的被编程。

在设计的传统现场可编程门阵列路由块时候,设计师往往希望它能够应对最糟糕的问题场景——最复杂的互连集合可能性。正因为如此,现代传统现场可编程门阵列需要一整套10-14个金属层才能实现所有的互连功能。这些金属层及其附带的绝缘层扮演了一个“寄生电容器”的角色,但由此带来的问题,就是对能耗的要求太高。

不过现在,Efinix 公司研发的量子可编程技术让每个现场可编程门阵列路由块的角色变得非常灵活,全新设计根本不需要去考虑应对最糟糕的问题场景。如果一个逻辑块需要特别复杂的路由,你需要做的,就是分配一个相邻的、额外的现场可编程门阵列路由块进行路由即可。这意味着,Efinix 量子系统本身体积会变得更小,而且它只需要七个金属层就能实现互连。随着金属层数量的减少,也大大降低了寄生电容器的功率消耗,同时也让Efinix 的可编程芯片集成到其他芯片架构的操作变得更加便捷,比如片上芯片系统(System-on-Chip )和应用型专用集成电路(ASIC)。

得益于上周获得了赛灵思、三星电子和香港X科技基金投资一笔 920 万美元融资,Efinix 公司计划从2018年开始,与合作伙伴一起生产新款芯片产品。有趣的是,给Efinix 公司投资的最多的竟然是现场可编程门阵列行业巨头赛灵思(Xilinx)。Salil Raje 是赛灵思公司软件即IP产品高级副总裁,他说道:“Efinix 公司的解决方案,可以解决很多应用问题,而这些问题,基本上使用当前的现场可编程门阵列芯片是无法解决的。”

Efinix 公司联合创始人 Cheung 补充说道:“我们不会与赛灵思公司竞争,相反,我们会携手拓展现场可编程门阵列芯片市场。”事实上,如今现场可编程门阵列芯片市场规模已经达到了 50 亿美元,而且还在快速增长,预计未来市场规模会突破 100 亿美元。



本文作者:天诺
本文转自雷锋网禁止二次转载, 原文链接
目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能浪潮下的自我修养:从Python编程入门到深度学习实践
【10月更文挑战第39天】本文旨在为初学者提供一条清晰的道路,从Python基础语法的掌握到深度学习领域的探索。我们将通过简明扼要的语言和实际代码示例,引导读者逐步构建起对人工智能技术的理解和应用能力。文章不仅涵盖Python编程的基础,还将深入探讨深度学习的核心概念、工具和实战技巧,帮助读者在AI的浪潮中找到自己的位置。
|
5天前
|
机器学习/深度学习 人工智能 算法
人工智能平台年度技术趋势
阿里云智能集团研究员林伟在年度技术趋势演讲中,分享了AI平台的五大方面进展。首先,他介绍了大规模语言模型(LLM)训练中的挑战与解决方案,包括高效故障诊断和快速恢复机制。其次,探讨了AI应用和服务的普及化,强调通过优化调度降低成本,使AI真正惠及大众。第三,提出了GreenAI理念,旨在提高AI工程效率,减少能源消耗。第四,讨论了企业级能力,确保数据和模型的安全性,并推出硬件到软件的全面安全方案。最后,介绍了整合多项核心技术的Pai Prime框架,展示了阿里云在自主可控AI核心框架下的整体布局和发展方向。
|
1月前
|
机器学习/深度学习 人工智能 算法
人工智能浪潮下的编程实践:构建你的第一个机器学习模型
在人工智能的巨浪中,每个人都有机会成为弄潮儿。本文将带你一探究竟,从零基础开始,用最易懂的语言和步骤,教你如何构建属于自己的第一个机器学习模型。不需要复杂的数学公式,也不必担心编程难题,只需跟随我们的步伐,一起探索这个充满魔力的AI世界。
49 12
|
1月前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
76 12
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解人工智能中的深度学习技术及其最新进展
深入理解人工智能中的深度学习技术及其最新进展
177 12
|
30天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
探索未来编程:Python在人工智能领域的深度应用与前景###
本文将深入探讨Python语言在人工智能(AI)领域的广泛应用,从基础原理到前沿实践,揭示其如何成为推动AI技术创新的关键力量。通过分析Python的简洁性、灵活性以及丰富的库支持,展现其在机器学习、深度学习、自然语言处理等子领域的卓越贡献,并展望Python在未来AI发展中的核心地位与潜在变革。 ###
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解人工智能中的深度学习技术及其最新进展
深入理解人工智能中的深度学习技术及其最新进展
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与深度学习:探索未来技术的无限可能
在21世纪,人工智能(AI)和深度学习已经成为推动科技进步的重要力量。本文将深入探讨这两种技术的基本概念、发展历程以及它们如何共同塑造未来的科技景观。我们将分析人工智能的最新趋势,包括自然语言处理、计算机视觉和强化学习,并讨论这些技术在现实世界中的应用。此外,我们还将探讨深度学习的工作原理,包括神经网络、卷积神经网络(CNN)和循环神经网络(RNN),并分析这些模型如何帮助解决复杂的问题。通过本文,读者将对人工智能和深度学习有更深入的了解,并能够预见这些技术将如何继续影响我们的世界。
67 7
|
2月前
|
人工智能 自然语言处理 自动驾驶
技术与人性:探索人工智能伦理的边界####
本文深入探讨了人工智能技术飞速发展背景下,伴随而来的伦理挑战与社会责任。不同于传统摘要直接概述内容,本文摘要旨在引发读者对AI伦理问题的关注,通过提出而非解答的方式,激发对文章主题的兴趣。在智能机器逐渐融入人类生活的每一个角落时,我们如何确保技术的善意使用,保护个人隐私,避免偏见与歧视,成为亟待解决的关键议题。 ####