人工智能是否会超越人类智慧?- 施米德休教授采访

简介: 人工智能是否会超越人类智慧?- 施米德休教授采访

3月9日至3月15日,谷歌 AlphaGo 将在韩国首尔与李世石进行5场围棋挑战赛。截止今日,李世石已经连输两局。相信大家近日对 AlphaGo 的算法和背后整个人工智能产业的发展很感兴趣,小编因此翻译了 infoQ 采访人工智能领域重要人物-施米德休教授(Jürgen Schmidhuber)的文章。


以下是译文:

机器学习已经成为媒体这几天的流行语。科学杂志(Science)上发表了关于通过概率程序诱导的人类水平的概念学习的文章后不久,自然杂志 (Nature) 又用专门的封面故事报道 AlphaGo ,一个打败了欧洲围棋锦标赛冠军的人工智能程序。


如今很多人在讨论人工智能的潜力,提出一些问题,比如“机器是否可以像一个人一样学习?”,“人工智能是否会超越人类的智慧?”,等等。为了回答这些问题,InfoQ 采访了教授 Jürgen Schmidhuber,瑞士人工智能实验室 IDSIA 的主任。

44.jpg

瑞士人工智能研究所 IDSIA:2009 年到 2012 年间,该研究所开发的人工神经网络在模式识别和机器学习方面赢得了八项国际比赛。有超过十亿人在使用 IDSIA 的算法,通过使用谷歌的语音识别的智能手机等。

infoQ:什么是深度学习和它的历史?

深度学习这个概念只是旧酒装新瓶。它主要是有许多后续处理阶段的深层神经网络,而不只仅仅有少数后续处理阶段。随着今天的速度更快的计算机,这些深层神经网络已经彻底改变了模式识别和机器学习这两个领域。所谓“深度学习”这个概念首次由 Dechter 于 1986 年引入机器学习。

深度学习之父是乌克兰数学家 Ivakhnenko。在 1965 年,他出版了第一个可以使用的监督学习前馈多层感知算法(Supervised Deep Feedforward Multilayer Perceptions)。1971 年,他已经描述了一个 8 层的网络,由现在仍流行在新千年的方法训练,即使按照目前的标准也是很深层的。他远远领先于他的时代——当时的电脑比现在慢近乎十亿倍吧。

infoQ:你怎么看谷歌的 AlphaGo?AlphaGo 是否是在人工智能方面的大突破?什么技术帮助 AlphaGo 实现这一目标?

我为谷歌 DeepMind 的成功感到很高兴,该公司在很大程度上受我以前的学生的影响:二个 DeepMind 的最初四个成员和他们的第一个博士学位来自我任职的人工智能实验室 IDSIA,其中一人是 DeepMind 联合创始人,另一个人是 DeepMind 的第一个雇员。

马尔科夫假设(Markov Assumption)可以应用于围棋:原则上,当前的输入(整个棋局状态)能传达所有需要算出最佳的下一步行动的信息(无需考虑以前棋局状态的历史)。也就是说,围棋可以通过传统的强化学习(Reinforcement Learning)来解决。相比过去,计算机的计算速度是每美元至少快 1 万倍,我们从这个进步中获利许多,在过去的几年中,围棋程序有很大的提高。学习成为一个好的棋手,DeepMind 的系统结合了多种传统方法,如监督学习(Supervised Learning)和基于蒙特卡罗树搜索的强化学习(RL based on Monte Carlo Tree Search)。

然而,不幸的是,马尔科夫状态(Markov Condition)很难应用于其他一些现实场景。这就是为什么现实世界的一些游戏,例如足球,比国际象棋或围棋更难,生活在部分可观测环境的强人工智能(AGI)机器人将需要更复杂的学习算法,例如,复发性神经网络强化学习(RL for recurrent neural networks)。

infoQ: 在你看来,什么是人与计算机之间合理的社会工作分工?

人类不应该做艰苦和枯燥的工作,这些工作应该由计算机去做。

InfoQ:你如何想象人工智能在不久的将来的发展?会不会遇到瓶颈?

在 reddit 的一个 AMA (Ask Me Anything - Reddit)我指出,即使现有的机器学习和神经网络算法,将在众多领域的实现超人的壮举,从医疗诊断,到更聪明的智能手机。下一代智能手机将更好地了解你,解决更多的问题,可能会让你更加沉溺其中。

我想我们正在目睹人工智能产业的爆发。但如何预测这场爆发的细节?

假设计算能力会以每十年便宜 100 倍的速度降价,2036 年相同的价格的电脑会比如今的电脑快 10,000 倍。

这听起来或多或少像在一个小型的便携式设备中储存了人类大脑的力量。或者在一个较大的电脑中储存了一个城市的人脑的力量。

鉴于这种计算能力,我期待巨大的(按今天的标准)的递归神经网络(RNNs)同时感知和分析来自多个源多数据流(语音,文本,视频,许多其他方式)的巨大的输入量,学习关联所有这些输入,并使用所提取的信息来实现的商业和非商业的无数目标。这些RNNs 将持续,快速学习各种复杂技能。

infoQ:人工智能的下一步发展会是怎样的?

孩子们甚至某些小动物仍比我们最好的自我学习的机器人更聪明。但我认为,在未来的某一点,我们也许能够建立一个基于NN增量式学习的人工智能程序(NNAI),可以学习到小动物的聪明程度,学习如何计划和推理,把各种各样的问题分解成能快速解决(或已经解决)的子问题。通过我们的乐趣形式理论( Formal Theory of Fun),我们甚至有可能让机器人拥有好奇心和创造力。

infoQ:当我们创造出和动物智力相匹配的人工智能程序后, 下一步会发生什么?

AI 的下一步发展可能不是巨大的:在自然界经过了几十亿年的演变,有了聪明的动物,但只在数百万年后,进化出了人类。更何况,技术进化要比生物进化速度要快得多。也就是说,一旦我们有动物级别的人工智能,几年或几十年后,我们可能有人类水平的人工智能,与真正无限的应用程序,并且每个企业都会发生变化,所有的文明都会改变,一切都会改变。

相关文章
|
4月前
|
分布式计算 NoSQL 物联网
麻省理工IOT教授撰写的1058页Python程序设计人工智能实践手册!
Python是世界上最流行的语言之一,也是编程语言中使用人数增长最快的一种。 开发者经常会很快地发现自己喜欢Python。他们会欣赏Python的表达力、可读性、简洁性和交互性,也会喜欢开源软件开发环境,这个开源环境正在为广泛的应用领域提供快速增长的可重用软件基础。 几十年来,一些趋势已经强有力地显现出来。计算机硬件已经迅速变得更快、更便宜、更小;互联网带宽已经迅速变得越来越大,同时也越来越便宜;优质的计算机软件已经变得越来越丰富,并且通过“开源”方式免费或几乎免费;很快,“物联网”将连接数以百亿计的各种可想象的设备。这将导致以快速增长的速度和数量生成大量数据。 在今天的计算技术中,最新的创新
|
4月前
|
分布式计算 NoSQL 物联网
麻省理工IOT教授撰写的1058页Python程序设计人工智能实践手册!
Python是世界上最流行的语言之一,也是编程语言中使用人数增长最快的一种。 开发者经常会很快地发现自己喜欢Python。他们会欣赏Python的表达力、可读性、简洁性和交互性,也会喜欢开源软件开发环境,这个开源环境正在为广泛的应用领域提供快速增长的可重用软件基础。
|
5月前
|
人工智能 数据挖掘 大数据
538个代码示例!麻省理工教授的Python程序设计+人工智能案例实践
Python简单易学,且提供了丰富的第三方库,可以用较少的代码完成较多的工作,使开发者能够专注于如何解决问题而只花较少的时间去考虑如何编程。 此外,Python还具有免费开源、跨平台、面向对象、胶水语言等优点,在系统编程、图形界面开发、科学计算、Web开发、数据分析、人工智能等方面有广泛应用。 尤其是在数据分析和人工智能方面,Python已成为最受开发者欢迎的编程语言之一,不仅大量计算机专业人员选择使用Python进行快速开发,许多非计算机专业人员也纷纷选择Python语言来解决专业问题。 由于Python应用广泛,关于Python的参考书目前已经有很多,但将Python编程与数据分析、人工智
|
5月前
|
人工智能 数据挖掘 大数据
538个代码示例!麻省理工教授的Python程序设计+人工智能案例实践
Python简单易学,且提供了丰富的第三方库,可以用较少的代码完成较多的工作,使开发者能够专注于如何解决问题而只花较少的时间去考虑如何编程。 此外,Python还具有免费开源、跨平台、面向对象、胶水语言等优点,在系统编程、图形界面开发、科学计算、Web开发、数据分析、人工智能等方面有广泛应用。 尤其是在数据分析和人工智能方面,Python已成为最受开发者欢迎的编程语言之一,不仅大量计算机专业人员选择使用Python进行快速开发,许多非计算机专业人员也纷纷选择Python语言来解决专业问题。 由于Python应用广泛,关于Python的参考书目前已经有很多,但将Python编程与数据分析、人工智
|
人工智能
AI时代已来,吴恩达呼吁向每个孩子教授人工智能知识
AI时代已来,吴恩达呼吁向每个孩子教授人工智能知识
105 0
AI时代已来,吴恩达呼吁向每个孩子教授人工智能知识
|
机器学习/深度学习 人工智能 自然语言处理
汪军教授组织了7位AI学者,论道ChatGPT后的通用人工智能理论和应用
汪军教授组织了7位AI学者,论道ChatGPT后的通用人工智能理论和应用
140 0
|
机器学习/深度学习 设计模式 人工智能
清华大学周伯文教授:从原则到实践解读多模态人工智能进展与可信赖AI
清华大学周伯文教授:从原则到实践解读多模态人工智能进展与可信赖AI
131 0
|
机器学习/深度学习 存储 敏捷开发
斯坦福教授曼宁AAAS特刊发文:大模型已成突破,展望通用人工智能
斯坦福教授曼宁AAAS特刊发文:大模型已成突破,展望通用人工智能
186 0
|
机器学习/深度学习 人工智能 自动驾驶
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
157 0
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
|
机器学习/深度学习 人工智能 算法
可以学习人类语言模式的人工智能
一种新的人工智能自动学习模型可以应用于不同语言的高级语言模式,使其能够取得更好的结果。
146 0
可以学习人类语言模式的人工智能
下一篇
无影云桌面