2500万美金,谷歌出钱出人,新计划要用AI助益社会

简介: 谷歌推出了一项“鼓励全民参与人工智能”的计划。

谷歌推出了一项“鼓励全民参与人工智能”的计划。

日前,Google推出了一项名为“AI for Social Good”的新计划,顾名思义就是“AI助益”。这个计划的参与者不是谷歌特定的某个开发部门,而是全社会。

TB10ynSmmzqK1RjSZFHXXb3CpXa.png

此谷歌建了一个2500万美金的计划基金,但凡从竞赛中获胜的人,谷歌都会将他的愿望变成现实。

换句话说,你是不是AI专家并不重要,没有理论没有技术都无所谓,只要你会想、敢想,提出对社会有益的项目想法,谷歌云、谷歌 AI专家都可以帮助你实现这个想法。

谷歌表示,给钱、给人,就差你了!

当然,也不是所有天马行空的愿望都会被采纳。谷歌还是提出了两个简单却重要的概念范围:对社会有益以及鼓励融合互动

同时还给出了成功项目应该具备的五个要素Tips,方便参与者进行自审。

1、AI的使用:提案项目的目标是否能完成?

2、可行性:是否有数据来支持该项目?是否获得了既定领域专家的支持?

3、影响:该项目助益社会具体的表现方式是什么?项目的愿景是什么?

4、责任:该项目需要基本符合Google的 AI实践原则。

5、可扩展性:项目是否可以扩展到提案的范围之外,对行业可能会产生的更广泛的助力是什么?

此外,谷歌还做了一件非常技术派风格的事。他们设定的最终项目提交时间为太平洋标准时间晚上11:59:59,截止日期则是2019年1月22日。之后就由审核小组进行提案的审查,并在4个月内宣布最终结果。

虽然全民参与的范围很广,但是最终入选的不一定非常多,因此2500万美元还是很有吸引力的,加上助益社会这个使命,相信无数科学狂热份子会争先恐后来参与。

事实上,谷歌推出这个计划不是无来由的。其内部因AI而起的意见分歧就有好几件。

例如早前的Project Maven项目,这项使用人工智能来推动有针对性无人机攻击的军事计划就遭到了谷歌内部的强烈反对,超过3000名谷歌员工向首席执行官 Sundar Pichai 发送了请愿信,敦促该公司终止与五角大楼的合作,最终谷歌选择退出。

今年夏天根据彭博社的报道,谷歌因为内部一个名为““九人小组”(Group of Nine)”的工程师团体拒绝了一份军事合同中“Air Gap”安全功能的项目工作,不得不叫停了该项目。

在AI快速发展的过程中,同时产生的道德争执也愈发强烈。AI影响社会的同时,民众也在影响AI。而谷歌推出此计划的意图,也在寻求一种更融合的发展,鼓励全民参与AI发展,达到“Social Good”的目标。

相关文章
|
2月前
|
机器学习/深度学习 人工智能 算法
整合海量公共数据,谷歌开源AI统计学专家DataGemma
【10月更文挑战第28天】谷歌近期开源了DataGemma,一款AI统计学专家工具,旨在帮助用户轻松整合和利用海量公共数据。DataGemma不仅提供便捷的数据访问和处理功能,还具备强大的数据分析能力,支持描述性统计、回归分析和聚类分析等。其开源性质和广泛的数据来源使其成为AI研究和应用的重要工具,有助于加速研究进展和推动数据共享。
76 6
|
24天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
134 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
1月前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
171 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
23天前
|
人工智能 自然语言处理 API
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
谷歌推出的Multimodal Live API是一个支持多模态交互、低延迟实时互动的AI接口,能够处理文本、音频和视频输入,提供自然流畅的对话体验,适用于多种应用场景。
71 3
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
|
2月前
|
机器学习/深度学习 数据中心 芯片
【AI系统】谷歌 TPU 历史发展
本文详细介绍了谷歌TPU的发展历程及其在AI领域的应用。TPU是谷歌为加速机器学习任务设计的专用集成电路,自2016年首次推出以来,经历了多次迭代升级,包括TPU v1、v2、v3、v4及Edge TPU等版本。文章分析了各代TPU的技术革新,如低精度计算、脉动阵列、专用硬件设计等,并探讨了TPU在数据中心和边缘计算中的实际应用效果,以及谷歌如何通过TPU推动移动计算体验的进步。
86 1
【AI系统】谷歌 TPU 历史发展
|
1月前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
29 5
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
38 2
|
2月前
|
机器学习/深度学习 缓存 芯片
【AI系统】谷歌 TPU v1-脉动阵列
本文详细分析了谷歌TPU v1的架构与设计,重点介绍了其核心组件如DDR3 DRAM、矩阵乘法单元(MXU)、累加器及控制指令单元,特别是MXU中脉动阵列的工作机制。通过对比TPU v1与CPU、GPU在服务器环境中的表现,展示了TPU v1在提升神经网络计算吞吐量方面的显著优势,尤其是在低延迟和高能效方面。
58 3
|
2月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v4 与光路交换
TPU v4 是谷歌在 TPU v3 发布四年后推出的最新一代 AI 加速器,采用了 7nm 工艺,MXU 数量翻倍,内存容量和带宽显著提升。TPU v4 引入了 Sparse Core 以优化稀疏计算,首次采用了 3D Torus 互联方式,通过 Palomar 光路开关芯片减少系统延迟和功耗。TPU v4 Pod 实现了 1.126 Exaflops 的 BF16 峰值算力,展现了谷歌在大规模并行计算领域的突破。然而,TPU v4 也面临着系统成熟度低、拓扑僵硬和负载均衡问题等挑战。
79 0
|
2月前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
50 0