[转]AI创业公司收购竞赛:苹果领跑,谷歌第二|全球快讯

简介: 长期以来,AI一直是各行业科技领导者的一个关注焦点。从零售到农业,各个领域里的大企业都在努力将机器学习整合到他们的产品中。但是与此同时,AI人才却严重短缺。这种供不应求的状况导致了对顶级AI创业公司的激烈争夺,其中许多创业公司还处于早期研发和融资阶段。

image.png

长期以来,AI一直是各行业科技领导者的一个关注焦点。从零售到农业,各个领域里的大企业都在努力将机器学习整合到他们的产品中。但是与此同时,AI人才却严重短缺。

这种供不应求的状况导致了对顶级AI创业公司的激烈争夺,其中许多创业公司还处于早期研发和融资阶段。

苹果领跑AI收购竞赛

CB Insights数据显示,引领这场争夺赛的是大家耳熟能详的FAMGA五巨头(指全球市值最高的5家公司,它们是Facebook、亚马逊、微软、谷歌和苹果)。在过去十年,这些巨头一直在积极收购AI创业公司。

在FAMGA公司中,在前面领跑的是苹果,自2010年以来一共收购了20家AI公司。紧随其后的是谷歌(2012年至2016年的领跑者),一共收购了14家;微软第三,收购了10家。

image.png

苹果的这些AI收购对iPhone新功能的开发至关重要。例如,iPhone X的面部识别解锁功能基于一种名叫FaceID的技术,而该技术源自苹果收购的芯片和计算机视觉领域里的几家公司,包括AI公司RealFace。

事实上,FAMGA的许多知名产品和服务,包括苹果的Siri、谷歌的DeepMind医疗应用,都源自他们所收购的AI公司。

另外,抢夺AI创业公司的远远不止科技巨头们。自2010年以来(截至2019年8月31日),全球共有635宗AI收购案。各个公司进行AI收购的目标包括打造自己的AI能力、获取AI人才等。

AI收购的步伐也在加快。从2013年到2018年,AI收购数量增加了近6倍;2018年更是创下纪录,一共有166笔收购交易,同比增长38%。2019年截至8月,全球已经有140多笔AI收购交易,今年全年很有可能超过去年创下的纪录。

image.png

导致AI收购步伐加快的原因之一是收购方的日益多样化。AI曾经是大型科技公司的专属领域,然而如今,规模较小的AI创业公司正在成为传统保险、零售和医疗公司的收购目标。

例如,在2018年2月,生物制药巨头罗氏(Roche)以19亿美元的价格收购了纽约癌症创业公司Flatiron Health,这也成为AI领域规模最大的并购交易之一。今年,耐克收购了AI库存管理创业公司Celect,Uber收购了计算机视觉公司Mighty AI,麦当劳收购了个性化营销公司Dynamic Yield。

尽管收购者数量增加,科技巨头们仍然占主导地位。苹果、谷歌、微软、Facebook、英特尔和亚马逊是最积极的AI收购者,每家都收购了7家以上的AI公司。与此同时,绝大多数公司(431家)只收购了一家AI公司。

零售和快速消费品领域最热门

从行业来看,被收购得最多的是零售和快速消费品(CPG)领域里的AI创业公司,自2010年来一共有67家被收购。这些被收购的公司转变成了AI客户分析、AI店内库存管理、个性化电商体验等。

最近的例子包括:美国美妆零售品牌Ulta Beauty收购虚拟化妆创业公司GlamST和开发AI购物助理的QM Scientific;耐克收购以色列计算机视觉公司Invertex,强化线上定制购物体验。

1.png

在跨行业应用中,一直以来最受关注的领域是语音、NLP和计算机视觉。自2010年以来,对该类别AI公司的收购一共有66起。大型科技公司也在积极收购此类公司,以促进其内部AI研发。例如,苹果收购了面部识别公司RealFace和语音助理创业公司Novauris Technologies,谷歌收购了人机交互公司Api.ai,微软收购了语音识别及NLP创业公司Semantic Machines和语音助手公司Maluuba。

转自创头条,原文链接:http://www.ctoutiao.com/2304018.html

相关文章
|
1天前
|
人工智能 自然语言处理 算法
谷歌DeepMind研究再登Nature封面,隐形水印让AI无所遁形
近日,谷歌DeepMind团队在《自然》期刊上发表了一项名为SynthID-Text的研究成果。该方法通过引入隐形水印,为大型语言模型(LLM)生成的文本添加统计签名,从而实现AI生成文本的准确识别和追踪。SynthID-Text采用独特的Tournament采样算法,在保持文本质量的同时嵌入水印,显著提高了水印检测率。实验结果显示,该方法在多个LLM中表现出色,具有广泛的应用潜力。论文地址:https://www.nature.com/articles/s41586-024-08025-4。
36 26
|
27天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
145 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
1月前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
175 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
26天前
|
人工智能 自然语言处理 API
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
谷歌推出的Multimodal Live API是一个支持多模态交互、低延迟实时互动的AI接口,能够处理文本、音频和视频输入,提供自然流畅的对话体验,适用于多种应用场景。
73 3
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
|
2月前
|
机器学习/深度学习 数据中心 芯片
【AI系统】谷歌 TPU 历史发展
本文详细介绍了谷歌TPU的发展历程及其在AI领域的应用。TPU是谷歌为加速机器学习任务设计的专用集成电路,自2016年首次推出以来,经历了多次迭代升级,包括TPU v1、v2、v3、v4及Edge TPU等版本。文章分析了各代TPU的技术革新,如低精度计算、脉动阵列、专用硬件设计等,并探讨了TPU在数据中心和边缘计算中的实际应用效果,以及谷歌如何通过TPU推动移动计算体验的进步。
91 1
【AI系统】谷歌 TPU 历史发展
|
1月前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
32 5
|
14天前
|
人工智能
阿里云领跑生成式AI工程领域,两大维度排名Gartner®生成式AI工程Market Quadrant全球第二
阿里云凭借强劲实力入选Gartner 《Innovation Guide for Generative AI Technologies》所有领域的新兴领导者象限。
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
39 2
|
2月前
|
机器学习/深度学习 缓存 芯片
【AI系统】谷歌 TPU v1-脉动阵列
本文详细分析了谷歌TPU v1的架构与设计,重点介绍了其核心组件如DDR3 DRAM、矩阵乘法单元(MXU)、累加器及控制指令单元,特别是MXU中脉动阵列的工作机制。通过对比TPU v1与CPU、GPU在服务器环境中的表现,展示了TPU v1在提升神经网络计算吞吐量方面的显著优势,尤其是在低延迟和高能效方面。
59 3
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v4 与光路交换
TPU v4 是谷歌在 TPU v3 发布四年后推出的最新一代 AI 加速器,采用了 7nm 工艺,MXU 数量翻倍,内存容量和带宽显著提升。TPU v4 引入了 Sparse Core 以优化稀疏计算,首次采用了 3D Torus 互联方式,通过 Palomar 光路开关芯片减少系统延迟和功耗。TPU v4 Pod 实现了 1.126 Exaflops 的 BF16 峰值算力,展现了谷歌在大规模并行计算领域的突破。然而,TPU v4 也面临着系统成熟度低、拓扑僵硬和负载均衡问题等挑战。
83 0