训练人工智能系统,和驯兽很像。
用动物做类比能帮普通人理解人工智能中很多复杂的方面,也能帮我们思考怎样让这些系统学新技能最好,最重要的是,还可以引导我们去考虑AI的局限性。
一位名叫Heather Roff的美女姐姐说。
△ Heather Roff
Heather是牛津大学政治及国际关系学院高级研究员,曾经做过驯兽师,现在正在研究人类如何运用AI。
她最近写了篇《理解动物能如何帮我们充分利用人工智能》,向AI科学家们传授了两点人生经验:
1. 给吃瓜群众讲AI,要靠和动物类比
普通人想让技术人员解释一下AI是什么,得到的答案多半会是“我们是怎么做AI的”。
讲深度学习,就说这种技术依靠多层神经网络来学习,需要处理海量信息,接下来难免讲到神经网络的算法、神经元之间复杂的连接方式。这时,吃瓜群众极有可能睡着:他只想知道这东西能干什么,怎么学会干这些的。
总把AI讲得像外星人一样,对科普没什么帮助;和我们训练过的小动物做个类比,倒是正合适。
Heather举了个用增强学习方法来训狗的例子。当狗正确地听从命令坐下,就表扬它、给它奖励,长此以往,它就学会了命令-行为-奖励这三者之间的联系。
训练AI系统也是一样,在深度增强学习中,人类设计、设置一个系统,预想一下他们想让系统学什么,给它信息,看它的行为然后给它反馈,比如说看到期望的行为就表扬它一下。
AI和狗,还有更深层次的相似性。
人类在训狗时,不会指望狗理解“爱”、“好”这种复杂的概念,只希望它掌握一种行为方式。同样,我们也可以让AI系统学会在公共道路上移动汽车,但指望它们去“解决”电车难题之类的道德问题,就想太多了。
2. 把AI当成狗,对研究也有帮助
当AI研究者教系统学新技能的时候,把这个过程看作训狗也有助于找到潜在的问题或并发症。
比如说,我想让狗听到“sit”就坐下,但是刚好在训练的时候,我一说sit烤箱的报警器响起来。结果,狗训练好了,听见“sit”会坐下,但是烤箱的报警器一响,它也会坐下。这就叫“意外强化(accidental reinforcement)”。
训练AI的时候也会发生类似的情况,所以,AI的研究人员们不仅要关注他们在训练过程中给AI系统的指令,也要注意AI在周围环境中可能观察到了什么。当然,烤箱报警器只是一个简单的例子,真实世界中的情况会比这复杂得多。
找到了AI系统被“意外强化”的原因,除了能帮我们预见错误,还能告诉我们怎样重新训练最有效。
最后,让我们回味一下《连线》杂志去年某篇封面文章的网络版标题:
Soon We Won’t Program Computers. We’ll Train Them Like Dogs.