谷歌发布强大AI芯片和超算 要转型硬件制造商?

简介:

5月18日消息,据technologyreview报道,如果说人工智能(AI)能够迅速蚕食掉软件,那么谷歌可能拥有最大的胃口。在今年的I/O开发者大会上,谷歌发布了更为强大的芯片和以机器学习为基础的超级计算机,它们将有助于谷歌成为以AI为重点的硬件制造商。

谷歌发布强大AI芯片和超算 要转型硬件制造商?

在I/O开发者大会上,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)介绍了谷歌研发的新计算机处理器,用于支持机器学习技术。近年来,机器学习已经在IT行业掀起强大风暴。此举也反映出快速进步的AI正如何改变谷歌本身,已经有可靠迹象显示,谷歌希望能领导AI软件和硬件等相关方面的发展趋势。

或许最重要的是,或者说至少对于研究机器学习技术的人来说,谷歌新的处理器不仅可以更快的速度执行任务,它还能被以令人难以置信的效率训练。谷歌新处理器名为云张量处理单元(Cloud Tensor Processing Unit),它以谷歌的开源机器学习框架TensorFlow的名义命名。

训练是机器学习领域最基础的部分。举例来说,为了开发出能够识别照片中热狗的算法,你可能需要训练算法识别数以万计的热狗照片,直到其学会区分。但是训练某个大模型的运算非常复杂,而且这种训练可能需要持续数天甚至数周。

皮查伊还在开发者大会上公布了机器学习超级计算机,或称Cloud TPU Pod,它以Cloud TPU集群为基础,可高速处理数据连接。皮查伊称,谷歌也在研发TensorFlow Research Cloud,它由数以千计的TPU组成。皮查伊表示:“我们正建立我们所谓的AI优先数据中心,Cloud TPU正帮助优化训练和推理,这为AI取得显著进步打下基础。”谷歌将制造1000套Cloud TPU系统,为那些愿意公开分享自己研发工作细节的AI研究人员提供支持。

皮查伊在主题演讲中还宣布多个AI研究计划,包括努力开发能够学习如何从事耗时工作的算法,包括微调其他机器学习算法。他还称,谷歌正为医学图像分析、基因组分析以及分子发现开发AI工具。在开发者大会之前,谷歌高级研究员杰夫·迪恩(Jeff Dean)表示,这些项目有助于帮助AI进步。他说:“许多顶级研究人员还没有像他们所希望的那样,获得强大的计算能力支持。”

谷歌进军以AI为重点的硬件和云服务领域,部分原因是受其自身业务加速的驱动。谷歌已经在使用TensorFlow为搜索、语音识别、翻译以及图形处理等提供支持。此外,谷歌也在Alphabet子公司DeepMind开发的智能程序AlphaGo中使用这种技术。

但从战略上看,谷歌可能在防止其他公司在机器学习领域取得主导地位。比如专门研发和制造图形处理芯片的英伟达,其芯片已经开始被用于深度学习领域,并在各种产品中变得越来越突出。为了提供某些措施以衡量其Cloud TPU提供的加速表现,谷歌表示其翻译算法可能受到训练,使用新硬件后比现有硬件速度快得多。32个最好的GPU全天的训练量,TPU Pod只需要发挥1/8的水平就可在1个下午完成。

谷歌云计算团队首席科学家、斯坦福大学AI实验室主管李飞飞(Fei-Fei Li)称:“这些TPU可提供惊人的128万亿次浮点运算,它们是专为驱动机器学习技术的芯片。”与之相比,iPhone 6可提供100万亿次浮点运算。谷歌表示,他们还可能为研究人员设计使用其他硬件的算法,这就是他们所谓的“民主化机器学习”。自从谷歌2015年发布TensorFlow以来,越来越多的研究人员开始使用它。谷歌宣称,TensorFlow已经成为世界上使用最广泛的深度学习框架。

机器学习专家目前正处于供不应求的状态,因为许多行业的公司都希望能够利用不断取得进展的AI力量。皮查伊表示,解决这种技术短缺的方案之一就是开发机器学习软件,用以取代AI专家开发机器学习软件的部分工作。

在谷歌开发者大会上,皮查伊公布了谷歌下属AI研究团队Google Brain正正进行的AutoML项目,研究人员已经展示,他们的学习算法可以自动化执行特定任务的机器学习软件设计中最棘手的部分工作。在某些情况下,他们的自动化系统还能够提出媲美人类机器学习专家甚至超越他们的方案。皮查伊表示:“这让人感到非常兴奋,它可以加速整个领域发展,帮助我们解决今天面对的某些最具挑战性的问题。”

皮查伊希望AutoML项目扩大开发者数量,他们可通过减少专业知识要求来更好地利用机器学习。这非常符合谷歌的定位策略,其云计算服务成为开发和托管机器学习的最佳平台。谷歌也正努力在企业云计算市场吸引更多新客户,因为谷歌在这个市场落后于亚马逊和微软。

AutoML项目的目标是帮助人们更容易使用深度学习技术,谷歌和其他公司正利用它支持语音识别、图像识别、翻译以及机器人研究等。深度学习可让数据通过一系列松散的数学计算层帮助软件变得更聪明,这种计算层受到生物学启发,为此被称为人工神经网络。谷歌AutoML项目机器学习研究员富国乐(Quoc Le)表示,为神经网络的数学模型选择正确的框架非常重要,但却并不容易。

本文转自d1net(转载)

相关文章
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
117 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
21天前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
129 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
13天前
|
人工智能 自然语言处理 API
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
谷歌推出的Multimodal Live API是一个支持多模态交互、低延迟实时互动的AI接口,能够处理文本、音频和视频输入,提供自然流畅的对话体验,适用于多种应用场景。
62 3
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
师资研修|AI赋能教师教学能力转型-德阳某教育主管部门
近日,德阳市教育主管部门,面向全市中职院校的骨干教师,开展AIGC赋能教育教学师资培训。TsingtaoAI参与负责本次师资研修的教学。本次师资研修通过系统化、专业化的培训,帮助教师深入掌握AI大模型及生成技术在教学中的应用。课程以实践为核心,以案例为载体,涵盖AI提示词优化、教案与题库生成、PPT高效设计及AI数字人应用等核心内容,全面提升教师的教学效率与创新能力。
33 5
|
24天前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
64 12
|
22天前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
26 5
|
21天前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
27天前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
34 2
|
28天前
|
机器学习/深度学习 缓存 芯片
【AI系统】谷歌 TPU v1-脉动阵列
本文详细分析了谷歌TPU v1的架构与设计,重点介绍了其核心组件如DDR3 DRAM、矩阵乘法单元(MXU)、累加器及控制指令单元,特别是MXU中脉动阵列的工作机制。通过对比TPU v1与CPU、GPU在服务器环境中的表现,展示了TPU v1在提升神经网络计算吞吐量方面的显著优势,尤其是在低延迟和高能效方面。
51 3
|
27天前
|
机器学习/深度学习 人工智能 并行计算
【AI系统】芯片的编程体系
本文探讨了SIMD与SIMT的区别及联系,分析了SIMT与CUDA编程的关系,深入讨论了GPU在SIMT编程的本质及其与DSA架构的关系。文章还概述了AI芯片的并行分类与并行处理硬件架构,强调了理解AI芯片编程体系的重要性,旨在帮助开发者更高效地利用AI芯片算力,促进生态繁荣。
48 0

热门文章

最新文章