当事故无法避免,你会选择撞人还是撞车?那无人驾驶车辆又该怎么选择?
机器人学的三大法则:
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
当碰上必须做出牺牲的时刻,无人驾驶应该做出什么选择?
老司机们都知道,道路情况瞬息万变,有很多事故往往都在你想不到情况下发生。现如今凭借高速发展的计算机技术和制造技术,无人驾驶已经离我们越来越近。
传统车厂现阶段已经基本上已经将ADAS(高级辅助驾驶系统)商业化,成功的搭载于旗下高端车型。智能巡航、行人探测系统、车道保持等等功能已经广泛运用于沃尔沃旗下车型;新一代的宝马7系已经可以实现钥匙遥控车辆的出入车库;甚至于Uber和谷歌等高科技公司,已经将研发成形的无人驾驶原型车开上道路进行测试。
就在大家都在为无人驾驶上路而全力以赴的时候,来自图卢兹经济学院的 Jean-Francois Bonnefon在去年却提出这样一个观点:当碰上必须做出牺牲的时刻,无人驾驶应该做出什么选择?
当你坐在一辆无人驾驶的车辆里,很不幸的发生了车辆快速冲向前方行车的情况。此时,无人驾驶车辆可以有两个选择:撞向旁边的围墙,牺牲自己保全前方的行人;撞向行人,以保全车内的乘员。后来,Bonnefon又修改了当中的细节。比方说,当这种情况发生时,车辆的决策权是否应该交还给司机?如果你的车上此时有一个婴儿,应该怎么办?如果前方也有一辆车,撞墙的话,自己必然会有牺牲,但是不会波及到前方车辆;但是如果选择撞车,可能会保全双方,但是同时也会有双方都有人受伤的情况发生。这时又该怎么选择?
在这一些列问题的基础之上,还有一个责任划分的问题。无人驾驶车辆发生事故之后,责任归属于车上的司机还是无人驾驶机器?如果划分给机器的话,应该由汽车厂家负责还是由算法提供商负责?还是说双方应该共同来承担责任?
不得不说,这一些列的观点提出,镁客君觉得无疑给正在飞速发展的无人驾驶泼上一盆冷水。仿佛进入了道德迷宫,你永远面临着选择,而不同选择的背后,都会有相应的后果。
麻省理工似乎有解决方案
就在人们对于无人驾驶车辆上路后,所要面对的道德问题进行讨论的时候,麻省理工的实验室里,似乎传来一种解决方案。而这个解决方案是基于他们开发出来的一台道德机器。
很有意思的是,这台机器人会先要求人们来回答一些列的问题。而这些问题也很尖锐,让很多参与者感到不安。比方说:没有乘客的无人驾驶汽车突然撞向马路中间的一条狗和逃跑的罪犯,你是去救狗还是去救罪犯?在测试结束之后,机器会把所有结果进行对比。最终得出的结论是:人们更多的是关心无人驾驶车辆是否会对道路上的其他人员造成伤害,而更少的关注乘坐无人驾驶车辆的人员。
这个解决方案看起来似乎有点意思,从结果出发来解决问题。只是,道德向来是一种社会意识形态,是一种虚无的意识形态。这一个机器所做的无非是将各类数据收集,然后分析出来一个结果。如果是基于真实案例,不管是对行人或者乘坐人一旦造成伤害,想必还是会遭受到舆论的抨击。
也就是说,麻省理工所提出的并不是一个解决方案,而更多的是提供一个数据分析,仅此而已。
连谷歌都不知道答案,无人驾驶该何去何从?
上周,来自谷歌的工程总监Ray Kurzweil,在奇点大学做演讲时回答了这个问题,当时他说了五个字:我们不知道。
他承认,目前对于无人驾驶的道德品性方面,没有任何现成的答案,就连分析都没做过。而作为谷歌的首席工程师Andrew Chatham则认为,当无人驾驶车辆面临选择的时候,往往第一时间做出的决策是——踩刹车。
所以,就连拥有世界无人驾驶领先水平的谷歌都不知道应该怎么去面对这些道德迷宫,而他们现在能做的只有踩刹车。
镁客君在这里不得不说,道德伦理一直伴随着人类文明的发展而进步,也会随着科技的发展而发生变化。所以,道德迷宫不应该成为无人驾驶发展道路上的拦路虎。
要知道,现阶段的无人驾驶技术,还并没有完善和商业化,仅仅是停留在研发测试阶段。哪怕我们大胆设想未来不超过5年的时间,无人驾驶车辆将上路行驶。那么到5年后,人们的道德舆论标准是否会发生相应的变化?当人们都有意识去规范自己的行为,遵守规定的时候,咱们的道路是否会形成一种相对的安全,从而避免上述的选择出现,从根本上改变?
科技的发展,不应受到道德的约束,这种无谓的钻牛角尖,只会阻碍人类科技文明的进步。