5月18日消息,据technologyreview报道,如果说人工智能(AI)能够迅速蚕食掉软件,那么谷歌可能拥有最大的胃口。在今年的I/O开发者大会上,谷歌发布了更为强大的芯片和以机器学习为基础的超级计算机,它们将有助于谷歌成为以AI为重点的硬件制造商。
谷歌发布强大AI芯片和超算 要转型硬件制造商?
在I/O开发者大会上,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)介绍了谷歌研发的新计算机处理器,用于支持机器学习技术。近年来,机器学习已经在IT行业掀起强大风暴。此举也反映出快速进步的AI正如何改变谷歌本身,已经有可靠迹象显示,谷歌希望能领导AI软件和硬件等相关方面的发展趋势。
或许最重要的是,或者说至少对于研究机器学习技术的人来说,谷歌新的处理器不仅可以更快的速度执行任务,它还能被以令人难以置信的效率训练。谷歌新处理器名为云张量处理单元(Cloud Tensor Processing Unit),它以谷歌的开源机器学习框架TensorFlow的名义命名。
训练是机器学习领域最基础的部分。举例来说,为了开发出能够识别照片中热狗的算法,你可能需要训练算法识别数以万计的热狗照片,直到其学会区分。但是训练某个大模型的运算非常复杂,而且这种训练可能需要持续数天甚至数周。
皮查伊还在开发者大会上公布了机器学习超级计算机,或称Cloud TPU Pod,它以Cloud TPU集群为基础,可高速处理数据连接。皮查伊称,谷歌也在研发TensorFlow Research Cloud,它由数以千计的TPU组成。皮查伊表示:“我们正建立我们所谓的AI优先数据中心,Cloud TPU正帮助优化训练和推理,这为AI取得显著进步打下基础。”谷歌将制造1000套Cloud TPU系统,为那些愿意公开分享自己研发工作细节的AI研究人员提供支持。
皮查伊在主题演讲中还宣布多个AI研究计划,包括努力开发能够学习如何从事耗时工作的算法,包括微调其他机器学习算法。他还称,谷歌正为医学图像分析、基因组分析以及分子发现开发AI工具。在开发者大会之前,谷歌高级研究员杰夫·迪恩(Jeff Dean)表示,这些项目有助于帮助AI进步。他说:“许多顶级研究人员还没有像他们所希望的那样,获得强大的计算能力支持。”
谷歌进军以AI为重点的硬件和云服务领域,部分原因是受其自身业务加速的驱动。谷歌已经在使用TensorFlow为搜索、语音识别、翻译以及图形处理等提供支持。此外,谷歌也在Alphabet子公司DeepMind开发的智能程序AlphaGo中使用这种技术。
但从战略上看,谷歌可能在防止其他公司在机器学习领域取得主导地位。比如专门研发和制造图形处理芯片的英伟达,其芯片已经开始被用于深度学习领域,并在各种产品中变得越来越突出。为了提供某些措施以衡量其Cloud TPU提供的加速表现,谷歌表示其翻译算法可能受到训练,使用新硬件后比现有硬件速度快得多。32个最好的GPU全天的训练量,TPU Pod只需要发挥1/8的水平就可在1个下午完成。
谷歌云计算团队首席科学家、斯坦福大学AI实验室主管李飞飞(Fei-Fei Li)称:“这些TPU可提供惊人的128万亿次浮点运算,它们是专为驱动机器学习技术的芯片。”与之相比,iPhone 6可提供100万亿次浮点运算。谷歌表示,他们还可能为研究人员设计使用其他硬件的算法,这就是他们所谓的“民主化机器学习”。自从谷歌2015年发布TensorFlow以来,越来越多的研究人员开始使用它。谷歌宣称,TensorFlow已经成为世界上使用最广泛的深度学习框架。
机器学习专家目前正处于供不应求的状态,因为许多行业的公司都希望能够利用不断取得进展的AI力量。皮查伊表示,解决这种技术短缺的方案之一就是开发机器学习软件,用以取代AI专家开发机器学习软件的部分工作。
在谷歌开发者大会上,皮查伊公布了谷歌下属AI研究团队Google Brain正正进行的AutoML项目,研究人员已经展示,他们的学习算法可以自动化执行特定任务的机器学习软件设计中最棘手的部分工作。在某些情况下,他们的自动化系统还能够提出媲美人类机器学习专家甚至超越他们的方案。皮查伊表示:“这让人感到非常兴奋,它可以加速整个领域发展,帮助我们解决今天面对的某些最具挑战性的问题。”
皮查伊希望AutoML项目扩大开发者数量,他们可通过减少专业知识要求来更好地利用机器学习。这非常符合谷歌的定位策略,其云计算服务成为开发和托管机器学习的最佳平台。谷歌也正努力在企业云计算市场吸引更多新客户,因为谷歌在这个市场落后于亚马逊和微软。
AutoML项目的目标是帮助人们更容易使用深度学习技术,谷歌和其他公司正利用它支持语音识别、图像识别、翻译以及机器人研究等。深度学习可让数据通过一系列松散的数学计算层帮助软件变得更聪明,这种计算层受到生物学启发,为此被称为人工神经网络。谷歌AutoML项目机器学习研究员富国乐(Quoc Le)表示,为神经网络的数学模型选择正确的框架非常重要,但却并不容易。
本文转自d1net(转载)