姚期智:算法将推动下一波AI浪潮,现有革新将达极限

简介:

[ 导读 ]姚期智教授为清华大学交叉信息研究院院长、中国科学院院士、美国科学院外籍院士。作为图灵奖唯一的华人获奖者,大名鼎鼎的“清华姚班”创建者,姚期智教授十足低调,近年来鲜有对外接受采访和公开露面。本文在不改变原意的基础上,以第一人称的方式,把我们与姚期智的对话进行了整理。这也是姚期智教授首次公开谈论当前AI现状、中国的机遇和挑战,人才培养等话题。

image

今后二三十年中,人工智能绝对将在科学界、工业界产生极大影响。在过去10多年里,人工智能已经有了非常大的进步,中国很幸运在这个浪潮中,而且在应用为主的方向上,已经追上了世界水平。

但我们不能认为追上世界水平后,工作就已经完成了。

因为过去10年产生的与人工智能相关的革新技术,肯定会在未来几年达到极限。那下一波新技术的革新中,中国能不能取得原创性的知识产权?能不能摆脱追赶别人发明的局面?我想现在是非常关键的。

image

现在关于人工智能的讨论,全世界范围内都很热闹,大体有乐观派和悲观派,我觉得两派都有一定的道理。

我认为悲观派觉得人类不能够创造出一个真正的人工智能,或者不能往好的方向利用,太过悲观。我们如果从历史上看,一般乐观地去看待事情,到最后总能产生一些更好的结果。

首先,关于人工智能的知识大家具备以后,你是挡不住有人去研究的,禁止往往不是最好的方式,不如通过达成社会共识,研究一个好的方法控制它。

其次,如果抱着防止人工智能落入坏人之手的担心而不去研究人工智能,那后果可能就会非常严重。防范一种科学知识变成危险的最好方法,是我们要有最好的能力、最好的技术掌控它。

比如火药,一旦做出来以后,它可能做好事可能做坏事,每一个工具被人类发明发现后,都会有这样的两面性。

那人工智能呢,从图灵开始,就希望能够让机器具有一个接近人类的思考、推理的方式,这是一个五六十年前提出时很乐观的理想,但后来经过三十多年研究,发现要真正实现是非常难的。

于是大家近十几年又从弱人工智能方向推进,经过几个不同的发展,最近通过深度学习,让弱人工智能能够做到许多方面几乎接近强人工智能,比如在很多人看来,围棋上击败世界冠军就已经是一个非常接近强人工智能的事件了。

但如果你仔细想想,现在所有人工智能所做到的事情,对于推理、跨领域想象,都是不具备的,所以如何达到强人工智能,我想现在处于一个希望找到突破口的阶段。

当然我们现在比五十年前要好,现在我们已经有了更多的智慧,特别是在弱人工智能领域,能够达到一些从未有过的目标和境界。这就给了我们一个机会,可以仔细分析当前这样一个系统,有没有可能更进一步。

比如AlphaGo跟人下棋的时候,可能会创造出一些新方法,我们是不是可以把它与人之前的方法结合起来研究?然后可以在下一阶段产生更强的人工智能,这样我们就向强人工智能又更进了一步。

过去十年的人工智能发展,特别是算法、计算力和大数据三要素中的后两者——计算力和处理大数据的能力,都到了一个相当惊人的地步。深度学习则帮助我们在算法上实现了突破,但这波潮水还没有充分发挥,在各种重要的领域,人工智能还在不断产生科学、经济方面的效益,所以还有不小的热度发挥出来。

那如果说这三个核心要素中,最有可能在下一波人工智能浪潮中跃迁的,我认为一定是算法。因为数据量归根结底还是有限的,计算力也会有一个差不多的极限,但算法上空间还很大。

我们现在把机器学习看做一个很高端的算法,但实际不是。机器学习的算法,我们大学二年级姚班的学生,一学就会,一个学期之后就基本能在外面承担不错的工作。

我们人类现在所拥有的智慧,基本只是使用了少量数据、少量计算力后的结果,而就在这样的条件下,也能跟以前的机器在很多领域打平手。所以人类一定有一些“算法”非常精妙,值得我们进一步研究。

这样看起来,现在的机器学习还很粗糙,我们不要期望人工智能可以发现很好的机器学习算法,因为人工智能没有那个本领。所以现在对于机器学习的推动,还是人类优先,这也是一个从事理论研究的最佳时机,这对我们国家来讲也是一个非常重要的时机。

另一个我认为很好的消息是现在存在两种不同的学习系统,一种是人类的智能,另一种是宇宙里的智能、生物进化方面的智能,我觉得也是一个好机会。

我们现在研究人工智能,核心方法是参照人类智能,但由于我们大脑太复杂,所以不太容易搞清楚。但生物学习进化、宇宙内的智能,是不是可以给我们提供一个更大的视野、空间,让我们在机器学习进化方面可以作为参照方向?我觉得是可以研究的。

image

具体到中国当前的人工智能研究和发展,我觉得可能存在两个方面的缺陷。

一个是系统方面,我们中国现在还没有出现一个大的AI系统,可以实现不同领域的广泛应用,这样的系统比如IBM就有,在1997年它用深蓝打败了象棋冠军,然后又进一步用这个做了知识类答题方面的应用,现在他们又把这个系统用到了医疗医药方面,沃森能够对于医病的诊断,达到和最优秀的医生一样的程度。

所以未来国家与国家在人工智能方面的竞争,中国公司跟外国公司的竞争,中国大学与外国大学之间的竞争,这样系统的缺失可能会带来劣势,而且我们中国对于计算机系统工程一向重视不够,我们在计算力、硬件方面很强,有全世界第一的超级计算机,但系统工程会是下一个阶段的重要壁垒。

如果你问我最认为最有可能出现“系统”的AI领域,我觉得是医疗。你看IBM的沃森,在目前的技术上整合吸收了非常多的数据,然后一天读完上万篇医药杂志论文,进而把其中的信息融入到它想诊断的疾病中——这里面还涉及到一些自然语言分析技术的应用。

但概括来讲基本就是把现在已经有的技术、数据,统统可以整合到它的系统工程中,好比你结合各种专长不一样的人。我相信我们也有人在考虑这样的事情,但需要更多的学界、工业界参与进来。

另一个缺陷是算法和背后的理论方面。下一步人工智能的突破,一定在算法方面,一定会从理论着手,这方面国外已经有了非常深厚的基础,但我们相对而言还处于弱势,需要我们这个时候多关注。

现在中国的优势是在应用层面,比如在各种比赛中,中国都拿下各种奖项。但这些全世界都已经在应用的技术,壁垒不大,可能需要一些经验,但不关乎核心。真正起到壁垒作用的是那些瓶颈问题上的话语权,我们能不能率先拿出解决方案,拥有理论基础到应用层面的优势。

image

理论基础和应用结合就可能涉及到人才方面的话题。现在计算机相关的行业如此热门,所以从理论研究上看,很难雇到非常好的人,很多优秀的人才,都被高薪雇到大公司里了,对于学术理论的研究,问题会非常大,这不止是中国的问题,对美国也是同样的。

这样的问题也没有办法避免,但好在二者之间还有平衡的空间。在大公司研究院中研究,最后还是会有一些限制,不像学校里面,能够完全从事一个自己完全自由的研究,我觉得这是学校吸引人的地方。

但同时我们也要意识到平衡这件事的重要性。如果没有一个好的研究队伍在大学里,将来中国在这方面的发展就难以为继了。

不过我个人来讲也只能号召,没有特别好的办法。或者有两件事情是可以做的,一是现在我们这些在学校里做人工智能的人,做出非常耀眼的工作,吸引到年轻人,让他们加入这个行列。二是大学里对于不同的领域,能够在待遇、安置方面增强吸引力,更加务实地去解决问题。

当然,产学研结合也是一种产生理论方法论的方式。比如楼天城他们在做的无人驾驶[1],在实际应用中肯定面临很多新问题去解决,就有可能产生突破,这时候大学和工业界的合作就显得更合理。

在工业界,你需要时间、落地方面的考虑,可能把这个问题做到85%,等不及完全100%的解决问题,那剩下的部分可以由学校来解决,把这个问题从85%推进到100%。

我们看美国的这些大公司,跟校园的合作、结合都是非常紧密的。中国现在也有,未来可能更多,但我希望工业界和大学的合作,不只是让大学去承担一个项目,然后产生一个软件,而是也能够从一个更长远、真正提高中国原创技术的角度去思考问题。

至于怎么从整体上培养更多的人才,我觉得可以从引进大家和让更多年轻人出头两方面入手,不过具体怎么做,可能需要清华大学领导和教育部领导去伤脑筋了。

从效率的角度来讲的话,能够吸引到一些杰出的大科学家,然后让他们来吸引教授、训练人才,这当然是最好的方法。因为一个资深的科学家,他对于整个领域有一个视野,他对于培养年轻人,有一整套方法。不过特别是在计算机科学上面,你想要吸引一些杰出的资深的人才不是那么容易。

其次是如何在研究系统中,让年轻人才,有出头的机会,怎么样能够让做得好跟做得普通的,有一个分开来的机制,有一套奖励的机制。

我觉得中国在过去这10年、5年的时间里,已经开始有成果效果。现在我们的计算机科学里面,已经逐渐能够引进或者自己产生不少杰出的人才,而且他们的工作基本已经进入了全球一流的水平,所以我们可以继续这样的措施,即便慢一点,但长远来讲,好的循环一旦开始,就会让整个事情变得更加不同。

image

我也可以分享下大师对我的影响,以及为什么当初选择回到清华,并进一步创办姚班的原因。

在杨振宁和李政道两位先生获得诺贝尔物理学奖的时候,我11岁,当时这件事情给我的影响就是应该去考台大物理系,我对物理的兴趣,跟他们获得诺贝尔有相当大的关系,并且从中学阶段就有机会去了解物理,到了大学则更加坚定学习物理的决心。

我还想多说一句的是,我觉得一个学术界的人,在本科的时候选择物理系是一个非常好的选择,因为物理这个学科,它给了你很多怎么样做研究的一种方法,同时能够让你有一个科学的理念,未来你可能会换很多领域,换不同的事业,但这种研究的方法、理念,会一直有帮助。

我也没有想到有一天会跟杨振宁先生见面,而且谈论的还是关于回国到清华任教的事情。

2002年的时候,我来到中国,在南京、上海、北京和很多中国计算机领域的专家学者交流讨论,留下了很深刻的印象。当时清华大学的计算机系主任周立柱教授,还有张钹院士则进一步联络我,希望我能够在清华帮助指导研究生,这是我们最开始的接触。

后来清华大学的领导正式来邀请我回国,到清华做计算机方面的研究,弥补中国在这方面和世界领先水平的差距,我认真考虑后做出了决定,希望为国家缩短这个距离做贡献。

不过万没想到的是,我答应后不久,清华方面还专门请了杨振宁先生来邀请我会面,我也是一向非常仰慕杨先生,当时也非常兴奋。而跟他见面以后,更是感觉如沐春风。

所以综合起来,我最终回到清华,算是一个顺理成章的事情,而且当时在跟我的爱人、家人和朋友讨论这个事情的时候,他们都非常支持。尤其是我的爱人,她觉得这件事非常好,会是一个非常有意义的工作。

不过到清华以后创办姚班,现在看来是一个大胆的尝试。

当时我想成立一个本科班,能够让它变成世界上最出色的本科班之一。并且人才条件上并不困难,一是我们的学生非常好,他们从中学毕业的时候,就绝对是全世界最出类拔萃的人才,我想我们在清华收到的学生,不比美国任何一个顶尖大学逊色。

第二个优势是这些人才不仅某一个学科好,而且所有的学科都很好,所以最后定义课程方面就相对变得容易。

第三个方面是相当坚定的办学理念,我们希望我们的学生毕业以后也要是全世界最优秀的本科毕业生,所以训练的方法非常严格,还会给他们各种接触到许多跨领域研究的机会,像生物、物理之类的。现在来看,姚班学生毕业以后从事的行业也没有全在计算机领域,他们依照自己的兴趣,发展得都很好。

进入工业领域创业的,楼天城、印奇、唐文斌等都在全世界最前沿的领域创业。继续学术研究的,马腾宇清华之后又去了普林斯顿,毕业后直接被斯坦福聘任。

不过如果办姚班这样的事情,如果在美国做,从理念到实践,会非常困难,阻力会非常多。

一个大学非常固定以后,有一套运行方式。即使是非常好的大学,越是好的大学,想要在里面做一些革新的事情就特别的困难。

但当时我把这个想法跟清华大学书记陈希说了以后,他仔细听,然后略微思索下就同意了,说应该做,让我什么事情都不用管,把精力集中在教学团队上就行,学校里的各种事情他去协调,所以一切蛮顺利。

但过了很多年,我才听说,当时为了协调这个事情,陈希书记花费了不少力气,这算是我办姚班收到的第一个“惊喜”吧。

第二个惊喜是之前知道清华学生优秀,但觉得总也有个限度,后来发现超乎想象。

更后来这些学生到普林斯顿等学校继续深造,那边的教授也是夸赞不已,说比他自己还聪明——你要知道说这话的那个教授,可是全印度联考的第一名,而且他说话一向不会夸张的,更何况承认学生比自己聪明。

所以现在回顾,我们当时说准备把这个班培养成一个具有和麻省理工、斯坦福同等水平的一个人才的培养库,现在全部达到了目标,或者可以说我们超标了,我们现在320位姚班学生,我觉得比那些学校的学生还要好。

可以从这件事上总结一点经验的话,是我觉得环境的重要性。

之前总有一个误解,认为中国人创造力不够,但我觉得环境有很大的原因,如果足够的带动、示范作用,周围的环境都满是创造力、思想活泼的教授,那学生自然也会变得跟他们一样,所以我不认为“创造力”缺乏可以成为我们科技原创发展不足的原因。

我们也不要怕别人说搞“精英教育”,环境的作用、示范带动的作用,会加速我们整个科学领域的进步。当然你也可以说一切顺其自然,中国经过30、50年发展也能实现,但我们不能等待了,我们这一代人都等不起了,国际环境也不允许我们顺其自然发展,我们必须要用很短的时间做好科技方面的良性循环。

image
image

虽然大名鼎鼎,但姚教授近几年出现在公众视野里的机会并不多,其中一个原因是他的时间有限:不仅在承担“姚班”、清华交叉信息研究院的行政工作,也在进行人工智能+金融方面的研究。他说自己近4年来,一直在博弈拍卖这个完全陌生的新领域进行理论研究,深感快乐。

姚期智说:“从趋势上看,用人工智能、大数据和机器学习去进入金融领域是大势所趋,而且现在对外合作,产学研结合方面也越来越紧密。我在一年以前开始鼓励我们的老师和一些投资公司、银行合作,希望将来能在金融科技这一块,利用人工智能、机器学习发展出一个新领域”。

不过,他希望更多用学术成果说话。

“现在可以说的是,过去这四年的工作还算出色,基本解决了这个领域里大家想要解决的一个问题。这一定程度也跟人工智能里的理论研究相关,并且再过两三年可能会给大家有所交代”,姚期智透露。

另外在交流中姚期智提及,他近期还参与完成了一档电视节目《机智过人》[2]的录制,他说之所以录节目上电视,最主要原因是人工智能,希望能够帮助中国更多民众、年轻学生更加深入地了解人工智能的科学内涵和未来机遇。

当然,人才方面的话题也是这次采访中最核心的问题。如上所见,姚教授分享了“姚班”办学方面的经验,同时对于那些尚未入门、或尚未对计算机科学发生兴趣的年轻人,姚教授建议可以阅读下李开复博士最新出版的作品《人工智能》[3]。

“我联想到在我成长的过程中,理查德·费曼那一套源自课程的著作,给我启发很大,让我觉得原来物理世界是这个样子,所以我也希望在计算机、人工智能领域有这样一些书能够让年轻人读后产生同样的激情。我其实对写本这样的书想了很多年,但实在没时间。”姚期智教授说。

原文发布时间为:2017-09-10
本文作者:姚期智
本文来自云栖社区合作伙伴“数据派THU”,了解相关信息可以关注“数据派THU”微信公众号

相关文章
|
1月前
|
传感器 人工智能 监控
智慧工地 AI 算法方案
智慧工地AI算法方案通过集成多种AI算法,实现对工地现场的全方位安全监控、精准质量检测和智能进度管理。该方案涵盖平台层、展现层与应用层、基础层,利用AI技术提升工地管理的效率和安全性,减少人工巡检成本,提高施工质量和进度管理的准确性。方案具备算法精准高效、系统集成度高、可扩展性强和成本效益显著等优势,适用于人员安全管理、施工质量监控和施工进度管理等多个场景。
|
1月前
|
传感器 人工智能 监控
智慧电厂AI算法方案
智慧电厂AI算法方案通过深度学习和机器学习技术,实现设备故障预测、发电运行优化、安全监控和环保管理。方案涵盖平台层、展现层、应用层和基础层,具备精准诊断、智能优化、全方位监控等优势,助力电厂提升效率、降低成本、保障安全和环保合规。
智慧电厂AI算法方案
|
19天前
|
机器学习/深度学习 缓存 人工智能
【AI系统】QNNPack 算法
QNNPACK是Marat Dukhan开发的量化神经网络计算加速库,专为移动端优化,性能卓越。本文介绍QNNPACK的实现,包括间接卷积算法、内存重排和间接缓冲区等关键技术,有效解决了传统Im2Col+GEMM方法存在的空间消耗大、缓存效率低等问题,显著提升了量化神经网络的计算效率。
32 6
【AI系统】QNNPack 算法
|
19天前
|
存储 人工智能 缓存
【AI系统】Im2Col 算法
Caffe 作为早期的 AI 框架,采用 Im2Col 方法优化卷积计算。Im2Col 将卷积操作转换为矩阵乘法,通过将输入数据重排为连续内存中的矩阵,减少内存访问次数,提高计算效率。该方法首先将输入图像转换为矩阵,然后利用 GEMM 库加速计算,最后将结果转换回原格式。这种方式显著提升了卷积计算的速度,尤其适用于通道数较多的卷积层。
45 5
【AI系统】Im2Col 算法
|
19天前
|
存储 机器学习/深度学习 人工智能
【AI系统】Winograd 算法
本文详细介绍Winograd优化算法,该算法通过增加加法操作来减少乘法操作,从而加速卷积计算。文章首先回顾Im2Col技术和空间组合优化,然后深入讲解Winograd算法原理及其在一维和二维卷积中的应用,最后讨论算法的局限性和实现步骤。Winograd算法在特定卷积参数下表现优异,但其应用范围受限。
30 2
【AI系统】Winograd 算法
|
8天前
|
人工智能 算法
AI+脱口秀,笑点能靠算法创造吗
脱口秀是一种通过幽默诙谐的语言、夸张的表情与动作引发观众笑声的表演艺术。每位演员独具风格,内容涵盖个人情感、家庭琐事及社会热点。尽管我尝试用AI生成脱口秀段子,但AI缺乏真实的情感共鸣和即兴创作能力,生成的内容显得不够自然生动,难以触及人心深处的笑点。例如,AI生成的段子虽然流畅,却少了那份不期而遇的惊喜和激情,无法真正打动观众。 简介:脱口秀是通过幽默语言和夸张表演引发笑声的艺术形式,AI生成的段子虽流畅但缺乏情感共鸣和即兴创作力,难以达到真人表演的效果。
|
1月前
|
机器学习/深度学习 传感器 人工智能
智慧无人机AI算法方案
智慧无人机AI算法方案通过集成先进的AI技术和多传感器融合,实现了无人机的自主飞行、智能避障、高效数据处理及多机协同作业,显著提升了无人机在复杂环境下的作业能力和安全性。该方案广泛应用于航拍测绘、巡检监测、应急救援和物流配送等领域,能够有效降低人工成本,提高任务执行效率和数据处理速度。
智慧无人机AI算法方案
|
25天前
|
人工智能 自然语言处理 Cloud Native
智保未来:国泰产险的 AI 网关革新之旅
通过阿里云云原生 API 网关在国泰落地,目前国泰所有访问大模型的流量均通过阿里云云原生 API 网关进行代理,在日均消耗近亿 Token 的同时,做到了对每个请求都进行敏感信息过滤,不论是输入大模型的内容还是由大模型产生的内容都进行了全面审计,大大降低使用大模型的数据安全风险。通过网关的 AI 插件,国泰产险做到了每个 Token 都知道是谁在用,用在哪个场景,给后续分析和成本管控提供了坚实的数据支撑。
|
23天前
|
存储 人工智能 缓存
【AI系统】布局转换原理与算法
数据布局转换技术通过优化内存中数据的排布,提升程序执行效率,特别是对于缓存性能的影响显著。本文介绍了数据在内存中的排布方式,包括内存对齐、大小端存储等概念,并详细探讨了张量数据在内存中的排布,如行优先与列优先排布,以及在深度学习中常见的NCHW与NHWC两种数据布局方式。这些布局方式的选择直接影响到程序的性能,尤其是在GPU和CPU上的表现。此外,还讨论了连续与非连续张量的概念及其对性能的影响。
46 3
|
23天前
|
机器学习/深度学习 人工智能 算法
【AI系统】内存分配算法
本文探讨了AI编译器前端优化中的内存分配问题,涵盖模型与硬件内存的发展、内存划分及其优化算法。文章首先分析了神经网络模型对NPU内存需求的增长趋势,随后详细介绍了静态与动态内存的概念及其实现方式,最后重点讨论了几种节省内存的算法,如空间换内存、计算换内存、模型压缩和内存复用等,旨在提高内存使用效率,减少碎片化,提升模型训练和推理的性能。
44 1