Jeff Dean等三名高管齐聚谷歌 I/O 压轴论坛,多角度解读谷歌眼中的机器学习

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_基础版,每接口每天50万次
简介: 2016 Google I/O 第三日刚刚结束了一场《机器学习:谷歌的视角》(Machine Learning:Google's Vision)活动,谷歌搜索、机器智能和 Web 工程的高级副总裁 John Giannandrea,高级员工、Google Brain 负责人 Jeff Dean,高级产品总监 Aparna Chennapragada 三位高管分别从产品、研究、开源和公司战略层面对谷歌的机器学习进行了系统讨论。

John Giannandrea|谷歌搜索、机器智能和 Web 工程的高级副总裁。其职能是负责监督这些领域的产品和业务开发,也包括带领该公司长期的科技创新。2010 年,随着谷歌收购 Metaweb,John 加入谷歌。Metaweb 是他和合伙人 Danny Hillis  联合创立的公司,他们的技术称为了谷歌知识图谱的基础。在这之前,John 是 Tellme Networks 的联合创始人和 CTO,该公司在 2007 年被微软收购。


Jeff Dean|高级员工。1999 年加入谷歌,现在谷歌的一位高级员工。他带领着谷歌的 Google Brain 团队,使用大规模的机器学习解决语音识别、计算机视觉、语言理解和其他领域的难题。他也联合设计/执行了谷歌研究和广告系统的主要模块,同样联合设计/执行了谷歌的分布式计算基础设施,包括 MapReduce、BigTable、Spanner 和 TensorFlow 系统。1996 年,Jeff 获得华盛顿大学计算机科学的博士学位。他是美国计算机协会会员、美国国家工程院和美国科学促进会成员。


Aparna Chennapragada|产品管理总监。Aparna Chennapragada 是谷歌产品管理的高级总监。最近,她带领着 Google Now,推动研究,帮助用户获得前瞻性信息。她是信息发现的思维和产品领导者,曾在谷歌搜索和 YouTube 带头完成了多项成果。Aparna 曾获得 MIT 工程管理硕士学位、德州大学奥斯汀分校计算机科学硕士学位、印度马德拉斯科技大学学士学位。



「此前有人讨论过『人工智能冬天』,我认为我们现在到了『人工智能春天』。」



主持人:人工智能和机器学习已经不是什么新概念了。它们存在已经有一段时间了,我们也开始听闻了很多关于它们的东西。各大小公司都在努力的开发这个技术。甚至现在还有这么多人一大早起来聚在一起谈论人工智能的科技。所以,整个领域到底发生着什么?


John:我认为最近几年,该领域出现了前所未有的进步,比如说语音识别和图像理解,准确率大幅提升,这主要是由于深度学习的进步。这些不是新技术,但在过去几年中一些外部因素的结合使其变得更加有效。这使得这方面的研究成果能够为开发者所用。此前有人讨论过「人工智能冬天」,我认为我们现在到了「人工智能春天」,我们看到了这个领域的显著。


主持人:你们研究人工智能多久了?


John:我们从 10 年前开始研究语音识别等技术,但真正认真的对人工智能进行大规模投入是在 4 年以前,将我们在这方面的研究有效整合,最终推出了 Tensor Flow 等产品。


主持人:Aparna能否从产品的角度说一下,John 提到机器学习现在更加强大、准确和有用,在你开发产品时,机器学习是否为你打开了一片新天地?


Aparna:当然!机器学习是一项伟大的技术,它提供了强大的工具箱去帮我们解决实际问题。在产品开发层面,对于我们和其他开发者来说,机器学习从以下两个方面改变了游戏规则:


1)机器学习通过大幅度改变技术构件来驱动产品,从而解决了语音识别等很多现存的技术问题,以及改变了现有的产品案例。当技术改善了底层引擎时,产品就会发生质的飞跃并更加好用,所以我们看到了用户数量的飞速增长。谷歌翻译就是一个很好的例子,当机器翻译技术变得更好,谷歌翻译产品就可以迅速把更多语言包含进来。谷歌 Photos 也是如此,当我们的技术能够更好的理解图片内容,标记图片就变得更加容易,用户就会发现可以更加方便的去管理他们的照片。


2)更加令人激动的是,机器在开启新的产品使用案例。


主持人:对于谷歌的产品开发人员来说,Google Brain 作为一个研究团队在进行一些基础技术问题的研究,同时也建立了一套底层架构供产品人员使用,能对此解释一下吗?


Jeff:产品取得进步要进行大量实验,并且是越快越好,在这方面花费几个小时与花费 6 周是完全不同的。我们所做的其中一项工作就是,尝试建立一个可规模化并且其灵活易用的系统来表达新的机器学习理念,这就是TenseFlow的起源。这在一项内部研发工具,但同时它也足够强劲,使你能够将你的产品放到上面进行测试和研究,并将其放入一个产品环境,比如说手机、数据中心、TPU等。这就是一个从研究到产品开发的过程。


主持人:TensorFlow 是非常有价值的工具包,为什么你要将其免费开源?作为机器学习开源软件有什么优势?它为什么是免费的?


Jeff:对于这个问题,一开始我们在内部进行了很多争论,之后我们决定将其开源,它也成为了一个你可以获得任何你想要东西的工具包。我们这么做的原因在于,TensorFlow 能够帮助开发者更快的把机器学习的相关想法变成产品。开发者可以选择和使用一些现有的东西进行开发。现在,TensorFlow 上有大约 1500 个套件,其实只有 5 个来自 Google,其它的都是开发者们的作品,这就是它的价值所在。开发者们能够在这个平台上集思广益,TensorFlow 能够使得产品快速孵化和迭代。当一个新套件出现,它能够迅速被其他开发者们使用和改善,这加速了人工智能领域里的想法交流。这就是我们选择开源的主要原因。


主持人:TensorFlow 目前进展如何?除了那些对机器学习非常熟悉的人,我们现在在谈论人人都可以使用机器学习,那些没有相关背景的人可以使用 TensorFlow 吗?


Jeff:我认为,人们可以通过多种方式来从享受到机器学习的优势,少数基础研究者会开发机器学习算法,更多的人则是使用现有模型和算法去解决特定问题,TensorFlow 能够帮助无机器学习背景的开发者进行产品研发。你可以非常方便的使用平台自带的且预先训练过的 API 。你仅需要将相关信息和要求输入到系统中,它就会自动将(拥有机器学习功能的)产品呈现给你。这一功能的实现得益于 TensorFlow 对算法模型的灵活运用。事实上,不论是 Google StreetView 还是图像识别,许多机器学习产品所使用的模型是相似的,只是用于训练模型的数据不同而已。同时,TensorFlow 自带的机器学习教程也非常简单易懂。开发者可以快速掌握机器学习中最常用的 6-7 个数学模型,实现快速上手。


主持人:TensorFlow 作为一个全新的产品,如何保证它的质量和可靠性?


Aparna:首先,我们意识到保证精确度是十分重要的。拿我的经验来说,我们在研究 Googel Now 时想到了一点,在一般使用场景下,例如当你使用谷歌搜索时,如果它给出了你不想要的结果,你可以选择忽略;但是,如果你的智能助手给你指了一条错误的机场路线以致于你错过了航班,那么后果就很严重了。所以我认为准确率非常重要,尤其是平台早期阶段。


其次,在任何案例中,你要格外注意在哪些问题上使用机器学习,注意哪些问题对人而言非常困难对机器而言却很简单。就是这里有你想通过机器学习解决的问题,但你不能在没有预测或在不理解之前就开始做。所以,选择产品适合的某一部分来实现机器学习,要比全盘推出的效果好得多。


主持人:现在每个人对人机智能交互格外兴奋。周三我们看到了谷歌的 Google Assitant。但其他很多公司也正在做这样的事。我们确信这能有成效吗?如何设计一个对话界面,我们都知道些什么?缺陷和长处又是什么?


Aparna:建立一个在任何事上都起作用的通用系统非常难。但我还是挺兴奋的,我们刚开源了语句解析器 Parsey McParseface 。这真的很令人激动,因为你开始看到对话的开端,至少开始理解自然语句,然后你就有了建筑的基石,可能在上面进行建造。


主持人:John,周三时我听到你说如今美国  20% 的搜索是语音输入,你认为会有一种助手界面以一种同样的方式出现,来帮助解决大量的询问搜索?


John:我们认为助手和搜索是截然不同的产品,而且使用起来也不一样。我们开发语音搜索技术很多年了,事实也证明用户喜欢用语音。这两个产品的区别是搜索的深度,以及能够解答问题的数量和难度。我认为,语言和对话是计算机科学尚未解决的问题之一。试想阅读一篇文章并写出简短的总结,我们目前没法做到这一点。语法分析器开源和使用 TensorFlow 关系密切,就像 Jeff 所说,类似 Google Photo 的开源产品允许参与操作运行云版本的程序。我们对自然语言了解的态度很类似,还需要很多年投入,才能建立任何内容都可以被理解的自然对话系统。对我们来说,这是个征途。今天,我们有不错的语音搜索产品,我们希望下半年发布Assistant的时候,大家会喜欢它。


主持人:智能助手的商业模式是怎样?


John: 我们现在的重点是开发用户喜欢的产品, 谷歌有开发令大众收益的产品的历史。大家喜欢并大规模使用某产品的话,我们会找到相应的商业模式的。



「机器学习尚需探索的领域包括:从自然环境中学习、自己创造算法模型、举一反三的能力,以及从小样本中学习」



主持人: 我们来谈谈尚未解决的科研问题吧。目前机器学习有惊人进展,不过还是有很大进步空间,能谈谈机器学习尚需探索的领域吗?


John&Jeff: 首先, 从自然环境中学习。 三五年前,机器对人类语言的理解还是十分初级的,例如将句子分段等。但是,现在的语言理解已经有了很大进步。然而,如何让机器从自然环境中学习仍是一个难点。现在我们一般训练机器的方法是,先给不同事物下定义和贴标签,然后让机器从这些已知定义中学习。未来,我们希望能够让机器从完全自然的、没有人工干预的原生环境中学习和总结。


其次,让机器自己创造算法模型。 目前为止,研究人员们都需要针对不同问题创造出不同的算法模型,然后将写好的模型和参数输入到机器中,使之进行学习。下一步,我们希望机器能够自己从数据中学习,并自己创造出合适的模型。然而,如果对所有数据全盘接收的话,效率会十分低下。这就要求机器能够从海量数据中挑选关键部分,来作为生成模型的样本。而进一步的,这又要求机器能够判断什么是重要的,而什么不是。这将会成为未来我们努力的方向。


第三,「举一反三」的能力。 我们希望机器能够在学习了一块知识后还能将其迁移,并应用到其它领域和场景中。例如,AlphaGo 所使用的算法模型和架构能够在围棋上打败世界冠军,但是如何使之能将同样的模型应用于其它方面,仍是一个难点。


最后,从小样本中学习。 如果你在幼儿园里待过一段时间,你会发现,四五岁的孩子只需要几次提醒,就能够知道自己要遵守的行为规范。同样地,机器学习应当能够从小样本中学习。目前,我们需要非常大量的数据来训练机器模型,这十分耗时,并且受限于许多条件。


主持人:之前 Google 将 14 支机械手臂连在一起进行学习的项目令人印象深刻,Jeff 能再介绍一下吗?


Jeff:这个项目的由来很有趣。有一天我们经过 Google X 机器人团队的办公室,发现有 20 个他们不用的机械臂,于是我们就把它们搬到了我们的办公室来进行这项实验。一开始,这些机械手臂只能通过自己的摄像头所观察到信息来尝试将盒子里的物品捡起来,但这个过程是很慢的。渐渐地,他们通过互相的信息共享来学习如何捡起不同物品,就像小孩子经过无数次的尝试捡起东西一样。并且,手臂的数量也加速了获取信息和数据的速度,从而加速了学习的过程。


主持人:下一代产品需要什么人工智能创新?


Aparna:比如说手眼协调,包括通过计算机视觉技术和自然语言处理的结合来指导实际行动,比说在机器人方面的应用。


John:与开放世界互动的机器人将会有新的挑战需要去解决,这与封闭可控环境下进行的视觉和自然语言处理任务截然不同。


主持人: 最近 DeepMind 在做什么?


John:DeepMind 目前主要是利用仿真数据进行学习,包括仿真游戏或真实物理系统。(注:当被问到 DeepMind 是否在做机器人时,John 回避了这个问题)。


主持人:John 刚才提到了「人工智能春天」以及过去的「人工智能冬天」,你们认为「人工智能夏天」何时到来?


John:在我看来,语言处理的进步会成为非常重要的里程碑。目前,语言处理仍旧是一大难点。但是,如果有一天,机器能够真正地阅读和理解文字,并将内容内化,那将是非常大的进步。比如,做到用英语解释英语——也就是改写句子,那么这说明它能够真正地理解文本的内容,这有可能通过使用某种自然语言处理的 API 来实现,也可能通过别的方法。总之,当我们解决了语言和对话问题,当计算机可以真正理解文本的内容时。


Jeff:我认为并不会有一个鲜明的分界线,因为人工智能的进步是循序渐进的,而且人们对人工智能的认识和期望也在不停的发生改变,所以我们也很难预测。如果你在四年前问我,机器能够对图片写出合适的语句吗?我可能会觉得短时间内我们无法做到这一点。而现在,这一功能已经实现。同时,我也感觉到,目前人们对人工智能的认知仍有些过分夸大,我们需要冷静下来,理智地思考人工智能的发展。


主持人:既然无法预料,你怎么知道不会是又一个冬天?


John: 只要我们一直在取得进步。近年来正是因为进步太快,才导致了媒体的夸大宣传。


主持人: 在你们眼里,谷歌现在提出的 AI first 意味着什么?


Aparna: 像之前的Mobile first一样,AI First 意味着全栈的革新,从底层的计算基础设施TPU,到中层算法和模型,再到高层的接口。


John:AI first 就是无处不在的智能助手。



「Google 一直在使用机器学习来投放广告。我们认为,广告必须要符合用户个性化的需求。如果一个广告对用户而言是完全没有用的话,那还不如不要放这个广告。这一直是我们坚信的投放广告的原则。」



观众问答环节


问:「偏见」也是人类思维的一种,你觉得它应该成为人工智能也应该拥有这种思维吗?社会将如何接受这件事呢?

 

John:如果你指的是人工智能可能出现的「偏见」或者「歧视」问题的话,我得承认这确实是一个潜在的风险。出现「偏见」与否,很大程度上取决于我们所选取的训练样本,在已有的实验中也确实出现了这样的问题。所以,开发人员一定要在选取训练样本上十分谨慎,尤其是对于监督式学习模型来说。


问:谷歌利用大量的用户数据来训练机器学习模型,那么在这过程中如何保证这些数据的隐私安全?当我把照片上传到 Google Photos 后,它们去向了哪里,又是如何被保护的?


Aparna:隐私保护是我们在所有产品研发过程中,都极其重视的一项内容,不论是 Google Photos、Google Now 还是其它产品。我们有两个用以构建隐私保护系统的原则。一个是与用户与产品间的一份完全透明的协议。用户有全权知晓,这项产品会如何利用数据来改善服务质量。第二,在默认情况下,系统会获得部分信息。例如,当你在开车的时候,你需要授权系统获取你的位置信息——你总不会想让系统以为你是从地球的另一端出发的。所以,通过这个透明且部分默认协议,用户的隐私性能得到有效的保护。并且,对于这些个人信息的使用,也只有你自己能看到。你的数据只能是你自己的,这是底线。


John:我们用于训练模型的数据,并不是来源于用户的个人数据库。机器能够识别你的图片,但这不代表我们能够获得它们的信息。


问:(追问)有没有可能,谷歌团队会利用用户上传的海量个人信息,来向赞助商匿名推荐相关的消费群体?比如,你能从我的照片知道我是一个喜欢狗的人,


John & Aparna:这是绝对不会发生的。


问: 如何从技术研发走向产品生产?这背后的思维模式是怎样的?


Aparna:由于无法大篇幅地向你介绍,我在这里精简地解释一下。首先,与之前 Jeff 谈到的相似,要选择那些对于人类很难而对于机器相对容易的任务。人工智能与机器学习的强大结合,也无法解决不存在的问题。所以,选择合适的问题是很重要的。我就见过许多因为错误的选择而失败的例子,不论是在 Google 内部还是其它地方。其次,构建一个能够不断迭代的模型也是很重要的。最开始,你应该仅在很小的范围内进行测试。拿旅行应用来说,你可以列出旅行者们最需要解决的 5 个问题,然后再挑选有价值的项目进行扩展。


Jeff:一般而言,我们在实验室里进行研究。当我们发现一个具有应用前景的研究时,我们会通过产品展示等方式,在内部分享给产品部门,并强调我们认为比较重要的特性,这样产品部门能够知道哪些地方是值得关注的。


问:近期,对于人工智能威胁论的讨论十分火热,伊隆 · 马斯克还将人工智能比喻为「召唤恶魔」。你们是怎么认为的?你们会如何通过产品展示,使公众重拾对人工智能的信任呢?


John:我对这个问题也很感兴趣。不过,机器学习现在做的,只是以一种更复杂的方式来更好地帮助人们。如果要举例的话,当你使用 Google 的产品搜索一个地点时,比如一个咖啡店,它能通过获取相关信息,告诉你这家店的忙碌时段。这就是现在机器学习能做到的最「高级」的事情了——并且,对于我来说,这没有什么吓人的地方。所以,确实存在着对人工智能的过分夸大和想象,而这些威胁论往往与真正的机器学习应用相去甚远。


问:在广告推送方面,Google 能否通过机器学习,向用户展示更个性化的广告,甚至结合同一产品的不同广告,来提高对用户的吸引力以及实用程度?


Jeff:机器学习确实有许多能够与广告运作相结合的地方。事实上,过去十多年间,Google 一直在使用机器学习来投放广告。我们认为,广告必须要符合用户个性化的需求。如果一个广告对用户而言是完全没有用的话,那还不如不要放这个广告。这一直是我们坚信的投放广告的原则。其它很多网站还没有类似的智能推送特性,但是我们相信,在这方面机器学习还有很大的发展空间。最终,用户们最看到更少的,但却更有用的广告。


问:(追问)那么用户如何能够知道,某一个推荐是人工智能筛选的结果,还是赞助商的投放广告?


Jeff:我们会清清楚楚地告诉用户,哪些是广告,哪些不是。大概而言,即使是广告推送,也是系统智能筛选之后的结果。我们不会生硬地把任何一个赞助商的广告扔到用户面前。我们总是会先计算一个广告是否会对用户有用,然后再决定是否推送它。


问:(追问)那么,比如,Google Home 是否会推荐赞助商的餐厅?


John:Google Home 还没有进入市场,很多功能有待完善和最终敲定。但是,我们会始终清楚地划分广告内容和其它搜索结果。


问:很欣赏 Google Brain 的工作,请问它扮演了一个什么样的角色?它和人们谈论的「奇点」又有怎样的关系?


Jeff:我们这个团队的主要任务是,研发更高级的方法,以解决人工智能中的难题,并且我们在不断地挑战更高的目标。而这一切的实现需要许多方面的努力。我们需要构建更好用的底层部件,例如 TPU;或者使用类似 TensorFlow 的工具,设计正确的系统架构。很多时候,我们所研究的机器学习方法离用户是很远的,而我们需要找出它们有价值的地方,并考虑如何将之应用于不同的领域。


我对「奇点临近」这一说法不怎么相信,所有的「指数函数」在一开始看起来都像指数函数,但发展到后面却完全不是一回事。


问:现在看来,Google Home 和 Google Assistant 这两个产品本质上是一个平台,而且还是结合了许多其它 Google 产品的平台,例如 Knowledge Graph 和 Google Cloud Speech 等等。这是 Google 的本意吗?让它们成为一个平台,是的其它制造商能够将其整合到自己的产品中?


John:我们的许多机器学习 API,确实都已经被转移到了云平台上,从而人们能够在其它产品开发中使用它们。目前,很多公司就在使用我们的产品,例如 Google Translate API,Cloud Speech API 等等。



谷歌专家都认为自然语言处理很重要,你还不赶快学起来?↓↓↓

微信图片_20211126202324.jpg

点击「阅读原文」报名活动。

✄------------------------------------------------

加入机器之心(全职记者/实习生):hr@almosthuman.cn

投稿或寻求报道:editor@almosthuman.cn

广告&商务合作:bd@almosthuman.cn


相关文章
|
10天前
|
机器学习/深度学习 数据采集 数据处理
谷歌提出视觉记忆方法,让大模型训练数据更灵活
谷歌研究人员提出了一种名为“视觉记忆”的方法,结合了深度神经网络的表示能力和数据库的灵活性。该方法将图像分类任务分为图像相似性和搜索两部分,支持灵活添加和删除数据、可解释的决策机制以及大规模数据处理能力。实验结果显示,该方法在多个数据集上取得了优异的性能,如在ImageNet上实现88.5%的top-1准确率。尽管有依赖预训练模型等限制,但视觉记忆为深度学习提供了新的思路。
20 2
|
机器学习/深度学习 人工智能 自然语言处理
Jeff Dean长文展望:2021年之后,机器学习领域的五大潜力趋势(1)
Jeff Dean长文展望:2021年之后,机器学习领域的五大潜力趋势
|
机器学习/深度学习 人工智能 安全
谷歌砸了4亿刀的Anthrophic:AI模型训练计算量5年增加1000倍!
谷歌砸了4亿刀的Anthrophic:AI模型训练计算量5年增加1000倍!
110 0
|
机器学习/深度学习 传感器 存储
探索自然本源!谷歌2022年终总结第七弹:「生化环材」如何吃上机器学习红利?
探索自然本源!谷歌2022年终总结第七弹:「生化环材」如何吃上机器学习红利?
124 0
|
机器学习/深度学习 存储 监控
谷歌大佬谈 MLOps :机器学习中的持续交付和自动化流水线(下)
背景 数据科学和机器学习正逐渐成为解决复杂现实问题以及在所有领域创造价值的核心功能。现在,有效运用机器学习技术的各种要素都已具备:
|
机器学习/深度学习 监控 算法
谷歌大佬谈 MLOps :机器学习中的持续交付和自动化流水线(上)
背景 数据科学和机器学习正逐渐成为解决复杂现实问题以及在所有领域创造价值的核心功能。现在,有效运用机器学习技术的各种要素都已具备:
|
机器学习/深度学习 存储 人工智能
High&NewTech:2021 年Google谷歌 I/O 开发者大会 Kemal 等三人主题演讲分享《TensorFlow 在机器学习领域的进展》
High&NewTech:2021 年Google谷歌 I/O 开发者大会 Kemal 等三人主题演讲分享《TensorFlow 在机器学习领域的进展》
High&NewTech:2021 年Google谷歌 I/O 开发者大会 Kemal 等三人主题演讲分享《TensorFlow 在机器学习领域的进展》
|
机器学习/深度学习 人工智能
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:40-11:10金驰《Near-Optimal Reinforcement Learning with Sel》
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:40-11:10金驰《Near-Optimal Reinforcement Learning with Sel》
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:40-11:10金驰《Near-Optimal Reinforcement Learning with Sel》
|
机器学习/深度学习 人工智能
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:10-10:40鬲融教授《Towards a theoretical understanding of l 》
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:10-10:40鬲融教授《Towards a theoretical understanding of l 》
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:10-10:40鬲融教授《Towards a theoretical understanding of l 》
|
机器学习/深度学习 人工智能 决策智能
AI:2020年6月23日北京智源大会演讲分享之机器学习专题论坛——09:45-10:25邢波教授《A Blueprint of Standardized and Composable ML》
AI:2020年6月23日北京智源大会演讲分享之机器学习专题论坛——09:45-10:25邢波教授《A Blueprint of Standardized and Composable ML》
AI:2020年6月23日北京智源大会演讲分享之机器学习专题论坛——09:45-10:25邢波教授《A Blueprint of Standardized and Composable ML》