谷歌 AI 中国中心成立,人工智能势不可挡?

简介: 谷歌 AI 中国中心成立,人工智能势不可挡?

昨日,谷歌在上海举办了一年一度的Google中国开发者大会。在本届大会上,谷歌云首席科学家李飞飞宣布了一个重磅消息,即在北京将成立谷歌AI中国中心。对于这个即将成立的AI中心谷歌寄予厚望,希望与中国本土AI研发力量合作共同致力于人工智能领域的研究。该中心由李飞飞和 Google Cloud 研发负责人李佳博士共同领导。李飞飞将会负责中心的研究工作,也会统筹 Google Cloud AI, Google Brain 以及中国本土团队的工作。

这是谷歌在亚洲的第一个AI中心。

根据李飞飞教授的介绍,Google AI 中国中心的团队由目前全世界最优秀的 AI 研究员组成。除了发表自己的研究成果,Google AI 中国中心的重心也将向培养本土 AI 科研人才倾斜,开放与本土企业的合作,并且为更广大的学生及研究人员提供高质量 AI 及机器学习的教育支持。



李飞飞表示:“我们很珍惜这次 Google 与中国顶尖 AI 人才合作的机会,这些人才,势必也是全球顶尖的 AI 人才。千里之行,始于足下,我们由衷希望,这将成为谷歌 AI 中国中心长期发展的第一步。在AI的世界里,中国早已觉醒,成为世界的领导者之一。我目睹了中国在AI基础研究、创业、发展等方面走到世界前列。在ImageNet图像识别大赛、Kaggle的AI编程竞技平台上以及基础科研等方面,都有巨大的成就。今天,我和团队回到中国,希望开始一段长久、真诚的工作,创造未来。这个中心将与我们在世界各地,包括纽约、多伦多、伦敦和苏黎世在内的AI研究小组一起,共同让人工智能更好地服务于全人类。‘’



近年来中国投资资本纷纷涌向人工智能领域。截止目前,中国共拥有592家人工智能企业,在智能语音、自动驾驶、计算机视觉和图像处理领域有不错的发展。可以预见,未来AI行业将会为人类社会发展带来颠覆性的影响。未来在人工智能普及之后,将会有服务机器人、医疗机器人、农用背包机器人、无人农用机等自动化生产力。AI也将大量应用在翻译、助理、客服、会计、司机、家政、咨询等岗位。


现在的中国市场,的确是人工智能的一片热土。自从将人工智能作为下一步的核心战略之后,百度又走起了技术流;阿里巴巴和腾讯虽然各有更加具有潜力的现金奶牛业务,但仍不愿减少对人工智能领域的投入;科大讯飞等本土初创企业的兴起,也仅仅是中国繁荣的人工智能市场的一个小小缩影。而且中国政府已经把发展人工智能作为国家的首要任务。人工智能发展形势一片大好,巨头们纷纷布局只为抢先机,而在AI这个领域中,中国互联网公司一点都不逊色美国,甚至要走的更超前一些。


据中国网络招聘企业的最新报告,随着中国人工智能快速发展,AI创业潮涌现,今年第三季中国AI相关人才需求量是去年第一季的近三倍。



人工智能的技术门槛很高,且难以通过短时间的学习掌握,具备学术知识以及实际操作经验的技术大牛是企业争抢的目标。知识型、技术型人才可复制性差,可替代性差,因此企业在追逐人才时通常处于被动状态,更出现高薪难求的状况。



目前,全世界约有30万人掌握从无人驾驶汽车到家用机器人所需要的先进计算机科学技术,腾讯研究院在一份报告中说,全球市场对AI专家的需求在百万量级。AI的兴起被称为第四次工业革命,强大的超级计算机通过大量数据来辨识模式并自主学习,这让人们产生了失业的担忧。麦肯锡咨询公司预测,到2030年,全球可能有8亿个工作岗位随自动化的实现而消失。过去三百年轰轰烈烈的工业运动,体力劳动基本已经被取消;而近年来火爆的人工智能,则把白领的工作也要取代。人工智能在围棋方面超过人类,甚至可以写新闻,连记者这个行当也被取消。


虽然人工智能已经存在很多年了,但我们今天所知道的人工智能仍处于起步阶段。围绕人工智能及其各种应用,从自动驾驶汽车到虚拟个人助理,以及其他许多需要人工智能的任务,都需要很长时间的部署与改进。人工智能还有很长的路要走。


人工智能一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。


人工智能具有巨大意义,同时也有着巨大的商机,人类面对庞大的利益诱惑不可能停止人工智能的研究,所以,人工智能真正会走到哪步,就让时间来证实。


相关文章
|
17天前
|
机器学习/深度学习 人工智能 自然语言处理
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
谷歌最新推出的Gemini 2.0是一款原生多模态输入输出的AI模型,以Agent技术为核心,支持多种数据类型的输入与输出,具备强大的性能和多语言音频输出能力。本文将详细介绍Gemini 2.0的主要功能、技术原理及其在多个领域的应用场景。
124 20
Gemini 2.0:谷歌推出的原生多模态输入输出 + Agent 为核心的 AI 模型
|
24天前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
141 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
16天前
|
人工智能 自然语言处理 API
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
谷歌推出的Multimodal Live API是一个支持多模态交互、低延迟实时互动的AI接口,能够处理文本、音频和视频输入,提供自然流畅的对话体验,适用于多种应用场景。
64 3
Multimodal Live API:谷歌推出新的 AI 接口,支持多模态交互和低延迟实时互动
|
18天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
1天前
|
人工智能 安全 搜索推荐
新手指南:人工智能poe ai 怎么用?国内使用poe记住这个方法就够了!
由于国内网络限制,许多用户在尝试访问Poe AI时面临障碍。幸运的是,现在国内用户也能轻松畅玩Poe AI,告别繁琐的设置,直接开启AI创作之旅!🎉
33 13
|
25天前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
26 5
|
3天前
|
存储 机器学习/深度学习 人工智能
科技云报到:人工智能时代“三大件”:生成式AI、数据、云服务
科技云报到:人工智能时代“三大件”:生成式AI、数据、云服务
|
1月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
35 2
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能与未来医疗:AI技术在疾病诊断中的应用前景####
本文探讨了人工智能(AI)在现代医疗领域,尤其是疾病诊断方面的应用潜力和前景。随着技术的不断进步,AI正逐渐改变传统医疗模式,提高诊断的准确性和效率。通过分析当前的技术趋势、具体案例以及面临的挑战,本文旨在为读者提供一个全面的视角,理解AI如何塑造未来医疗的面貌。 ####
|
1月前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v4 与光路交换
TPU v4 是谷歌在 TPU v3 发布四年后推出的最新一代 AI 加速器,采用了 7nm 工艺,MXU 数量翻倍,内存容量和带宽显著提升。TPU v4 引入了 Sparse Core 以优化稀疏计算,首次采用了 3D Torus 互联方式,通过 Palomar 光路开关芯片减少系统延迟和功耗。TPU v4 Pod 实现了 1.126 Exaflops 的 BF16 峰值算力,展现了谷歌在大规模并行计算领域的突破。然而,TPU v4 也面临着系统成熟度低、拓扑僵硬和负载均衡问题等挑战。
66 0