雷锋网(公众号:雷锋网) AI科技评论按:日前,wired上的一篇文章对人工智能的发展表达了独特的看法,文中认为,终结者里的情节只会发生在想象中,人类大可不必恐慌。雷锋网 AI科技评论将文章编译如下:
机器觉醒是连续不断的新闻报导中常见的主题。最近Facebook的研究员遇到一件令他们毛骨悚然的事情——他们的机器人在用自己的语言交谈,这似乎是机器觉醒的征兆。
其实并不用这么害怕。Facebook的实验确实产生了能说出混乱句子的聊天机器人,但并不至于引起恐慌,这些机器人并不聪明。AI实验室里没有任何研究人员产生恐慌,大家也不必害怕。但是,媒体大肆的错误报导对未来不是什么好事。随着机器学习和人工智能变得更加普遍,影响力越来越大,了解这些技术未来的潜力和目前的现状至关重要。算法将在战争、刑事审判和劳动市场上发挥关键作用。
其实Facebook的AI实验室真正发生的事是这样的:研究人员开始研究可以与人聊天的机器人,他们认为,机器人拥有谈判和合作能力之后,可以与人离得更近。他们慢慢的开始训练机器人,比如让机器人玩简单的游戏:要求两个机器人划分一系列的物品,如帽子,球和书籍等。
团队教机器人用两步来玩这个游戏。首先,他们从人类玩的的很多游戏中给计算机提供对话,让系统拥有谈判语言的意识。然后,他们使用一种强化学习方法——试错法来不断磨练机器人的技巧,帮助Google的AlphaGo打败世界冠军李世石的训练方法就是这种。
当使用强化学习的两个机器人一起游戏时,他们停止了使用可以识别的句子。Facebook的研究员在技术论文中干巴巴地这样描述到:“我们发现更新两个智能体的参数导致了他们的对话不再是人类可以理解的语言。”
下面是两个机器人让人难以忘记的对话:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
这种奇怪的谈话有时候会产生成功的谈判,显然是因为机器人学会了使用重复等技巧来传达他们的需求。这有点儿有趣,但也是一次失败的实验。Facebook的研究人员希望制造出可以与人类游戏的机器人,所以他们重新设计了训练方案,以确保机器人一直使用可识别的语言。正是改变了方案,才导致研究人员被机器人吓到停止实验的这种恐慌性的新闻出现。
之前太阳报头条中谈到Facebook这次的事件和终结者是否类似,终结者里面就谈到机器产生了意识,与人类发生了毁灭性的战争。
与终结者里截然不同,Facebook的机器人很简单,被设计成只会做一件事情:在简单的游戏中尽可能得到多的分数,而且机器人也按程序在执行。
这也不是AI研究员第一次创建出以自己的方式即兴沟通的机器人。3月份,WIRED报导了OpenAI的一次实验——机器人在虚拟世界中开发出了自己的语言。Facebook研究员Dhruv Batra失望的表示,媒体曲解了他们的研究,这种类似的例子在几十年以前就有了。
Facebook这次的实验并不可怕,而是证明了当今AI技术的局限。目前的机器学习系统对文字的盲目使用限制了它们的用处和能力。除非你找到一种方法来对想要机器具备的功能进行编程,否则很难获得大的突破。这就是为什么一些研究人员正在努力使用人类反馈而不只是代码来定义AI系统的目标。
Facebook的实验中最有趣的是什么?机器人开始说英语,并且证明了自己有能力与人谈判。这还不错,因为当你和Siri或Alexa谈话时,会发现它们并不擅长不断交谈。
有趣的是,Facebook的机器人在某些场合下,会骗人说对实际不上不想要的东西感兴趣。这才是在Facebook的实验室里发生的真正可怕的事情吗?——机器人可以说谎!不。你一点儿也不用担心,除了Facebook会说谎的机器人,还有在扑克赌博游戏中轻易胜过人类顶尖选手的Libratus机器人。这两个系统都可以在严格限定的环境中做出令人印象深刻的事情,但没有哪一个像人一样,能把经验和知识应用到新的环境中,具有自我意识。机器学习研究很吸引人,充满潜能,能改变我们生活的世界。终结者只是虚构的科幻而已。
雷锋网 AI科技评论编译
本文作者:思颖
本文转自雷锋网禁止二次转载,原文链接