谷歌 Dropout 专利生效,AI 圈内人表示坐不住了!

简介: 专利自 6 月 25 日起生效,有效期 15 年

雷锋网 AI 科技评论按:今天,谷歌的 Dropout 专利生效这一消息突然在圈内传开,而生效日期就在 6 月 25 日,有效期 15 年。三年前,谷歌就给 Dropout 申请了专利,但因为此举引发了业界众多异议,最最后无疾而终。只是令人没想到时隔三年,这一专利申请竟然生效了。雷锋网 AI 科技评论将这一事件整理报道如下。

TB1sjPPeoKF3KVjSZFEXXXExFXa.jpg

何为 Dropout?

但凡是接触过机器学习的人士,一定知道 Dropout。它是在进行深度学习、训练神经网络时,普遍会用到的方法,也是调参的一种手段,可以有效防止过拟合。由 Hinton 在 2012 年的论文《Improving neural networks by preventing co-adaptation of feature detectors》中提出。

而在随后 Alex 和 Hinton 的论文《ImageNet Classification with Deep Convolutional Neural Networks》中,则用 Dropout 算法来防止过拟合。论文中的 AlexNet 网络模型瞬间引爆神经网络应用热潮,并赢得了 2012 年图像识别大赛冠军,使得 CNN 成为图像分类上的核心算法模型。

而 Dropout 在这里面,就起到了训练深度神经网络的一种 trick 供选择这一重要作用。简单来讲:在前向传播过程中,Dropout 让某个神经元的激活值以一定的概率 p 停止工作,通过取各种网络的平均来提升模型的稳定性,从而有效的缓解过拟合现象,并在一定程度上达到正则化的效果。

而且对于机器学习来说,一旦模型过拟合,那么该模型几乎不能用。因此,这一方法在很早的时候,就被广泛的运用在机器学习领域中。

TB1lzYPeoGF3KVjSZFmXXbqPXXa.png

Dropout 申请专利

在谷歌申请专利的介绍中,他们把 Dropout 称为——《解决神经网络过拟合的系统与方法》。我们可以在 Google Patents (https://patents.google.com/patent/US9406017B2/en)上看到这项技术的专利详情页面。

通过摘要,我们大致可以了解到关于 Dropout 的这几点:

Dropout 是一个用来训练神经网络的系统;

其中网络某些层上的特征检测器都连着一个开关;

在每个训练场景下,这些开关会随机关闭部分特征检测器;

而这些训练场景下的权重会被归一化,最终将神经网络应用在测试集上。

TB1JJf0ea5s3KVjSZFNXXcD3FXa.png

从图中右上角,我们可以看到该技术发明者包括:Geoffrey E. Hinton、Alexander Krizhevsky、Ilya Sutskever、Nitish Srivastva;而目前的专利权受让人(Current Assignee)是谷歌。

Dropout 的影响

综上所述,当 Dropout 这一普遍且通用的方法成为了专利,虽然它非常简单,但此举就好比加法成为了个人专利,这势必会为整个行业带来大的扰动。

这一方法在将来的使用中,是否存在法律风险?谷歌会对该专利作出怎样的限制?这些限制将给学术研究与合作带来怎样的结果?对于国内外的相关企业又有什么影响?......这些问题不免引起大家的关注与思考。

消息发出后,reddit 上就针对这件事进行了热烈的讨论:

TB1UwzQelWD3KVjSZFsXXcqkpXa.png

其中讨论得最多的问题就是——以后我们是否还能够自由使用 Dropout?

TB14MzQelWD3KVjSZFsXXcqkpXa.png

针对这一问题,有人认为谷歌不会强制执行专利许可,就像他们之前的「使用深度神经网络处理图像」专利一样,也没有强制执行;

TB1CdbZelCw3KVjSZR0XXbcUpXa.png

也有人持有相反的态度,并且将关注点落在了企业层面,认为这一专利申请,势必会影响一大部分年轻的机器学习公司。因为谷歌可以对其专利代码被使用,随时提出诉讼,而对公司造成消极影响;

TB1txPPef5G3KVjSZPxXXbI3XXa.png

还有持辩证态度的群众,他总结到这个事情的影响视个人情况而定。如果你是机器学习相关的公司负责人,这件事的就会对公司利益造成损害;如果你与谷歌有利益纠纷,走法律程序前三思,因为你很可能会被谷歌公司以专利侵权返告;但如果你是谷歌的专利律师,那恭喜,估计世界上也没有能难到你的案件了!

TB1lzY0ebus3KVjSZKbXXXqkFXa.png

知乎上,一位知友也发表了自己的看法——

TB1f4LWelCw3KVjSZFlXXcJkFXa.png

还有网友表示我们不应该指责谷歌,应该指责专利制度;正如有句话所说「不要怪玩家,要怪就怪制定游戏规则的人。」不过,在事情还没有任何定论之前,我们也只能持观望态度,毕竟专利设置之初,其本意是用来鼓励和保护发明创造的,从过去的一些专利申请来看,它确实也起到了相应的作用,也维护了很多发明者自身的利益。

当然,我们也希望如大部分乐观网友所说,谷歌的行为只是单纯为了维护自身利益;而 Dropout 专利申请生效事件,也不会为学术圈乃至整个行业带来任何消极影响。

参考文献:

《深度学习中 Dropout 原理解析》.Microstrong0305(小强)

https://blog.csdn.net/program_developer/article/details/80737724?utm_source=copy

雷锋网(公众号:雷锋网) AI 科技评论

目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 算法
整合海量公共数据,谷歌开源AI统计学专家DataGemma
【10月更文挑战第28天】谷歌近期开源了DataGemma,一款AI统计学专家工具,旨在帮助用户轻松整合和利用海量公共数据。DataGemma不仅提供便捷的数据访问和处理功能,还具备强大的数据分析能力,支持描述性统计、回归分析和聚类分析等。其开源性质和广泛的数据来源使其成为AI研究和应用的重要工具,有助于加速研究进展和推动数据共享。
74 6
|
22天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
130 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
28天前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
162 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
20天前
|
人工智能 自然语言处理 API
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
谷歌推出的Multimodal Live API是一个支持多模态交互、低延迟实时互动的AI接口,能够处理文本、音频和视频输入,提供自然流畅的对话体验,适用于多种应用场景。
67 3
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
|
2月前
|
机器学习/深度学习 数据中心 芯片
【AI系统】谷歌 TPU 历史发展
本文详细介绍了谷歌TPU的发展历程及其在AI领域的应用。TPU是谷歌为加速机器学习任务设计的专用集成电路,自2016年首次推出以来,经历了多次迭代升级,包括TPU v1、v2、v3、v4及Edge TPU等版本。文章分析了各代TPU的技术革新,如低精度计算、脉动阵列、专用硬件设计等,并探讨了TPU在数据中心和边缘计算中的实际应用效果,以及谷歌如何通过TPU推动移动计算体验的进步。
82 1
【AI系统】谷歌 TPU 历史发展
|
30天前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
28 5
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
37 2
|
2月前
|
机器学习/深度学习 缓存 芯片
【AI系统】谷歌 TPU v1-脉动阵列
本文详细分析了谷歌TPU v1的架构与设计,重点介绍了其核心组件如DDR3 DRAM、矩阵乘法单元(MXU)、累加器及控制指令单元,特别是MXU中脉动阵列的工作机制。通过对比TPU v1与CPU、GPU在服务器环境中的表现,展示了TPU v1在提升神经网络计算吞吐量方面的显著优势,尤其是在低延迟和高能效方面。
57 3
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v4 与光路交换
TPU v4 是谷歌在 TPU v3 发布四年后推出的最新一代 AI 加速器,采用了 7nm 工艺,MXU 数量翻倍,内存容量和带宽显著提升。TPU v4 引入了 Sparse Core 以优化稀疏计算,首次采用了 3D Torus 互联方式,通过 Palomar 光路开关芯片减少系统延迟和功耗。TPU v4 Pod 实现了 1.126 Exaflops 的 BF16 峰值算力,展现了谷歌在大规模并行计算领域的突破。然而,TPU v4 也面临着系统成熟度低、拓扑僵硬和负载均衡问题等挑战。
74 0
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
48 0