为什么Google的无人驾驶汽车不能在追尾即将发生时进行变道而避免事故发生呢?这背后有一些道德上和法律上的问题需要解决。
尽管Google的无人驾驶汽车已经测试多年,就在7月1日的一次测试中,一辆经过Google改装的雷克萨斯SUV在加州山景城遭到追尾,车上的3名Google员工受了轻微的皮外伤。然而无一例外,这些事故的原因都不是Google无人驾驶汽车自己的问题,至少Google一直坚持这么说;毕竟这些事故中有很多都是Google的无人驾驶汽车被追尾导致的。这次无人驾驶汽车事件再次将人工智能牵涉的伦理问题推到风口浪尖。
那么为什么Google的无人驾驶汽车不能在追尾即将发生时进行变道而避免事故发生呢?
事实上,他们可以办到这一点,但是在这么做之前,他们还有一些道德上和法律上的问题需要解决。
汽车防撞的技术一直都存在,不管对方是另一辆汽车,还是一个行人或者其它物体,装备这项技术的汽车应该都能对可能发生的撞击采取措施而进行规避。到目前为止,这项技术都还只用到防止前方撞击上,但理论上,这些技术也可以用在防止追尾上,但首先,还需要考虑以下的问题:
可能的事故场景
想象一下你的自动驾驶汽车停在路口等待着你前面的行人过马路,这时候,你的车子发现后面有另一辆卡车冲过来了,看起来无可避免地要发生追尾事故了,但是你坐在前排座位上,这样的事故只会给你带来一点小伤——至少不会致命。如果你的汽车具备规避程序,那么你的汽车应该怎么做呢?如果你的车子可以立马躲开,移到旁边的车道去,那么这辆卡车就会冲进路口,碾压行人。
那么这样的自动驾驶程序是合情合理的吗?在大部分的追尾事故中,这样的规避也许无可厚非,但是在类似于这种情况的特殊情况(其实并不罕见)下,让自己受一点小伤还是拱手送上无辜行人的性命,选择显而易见。
因为,这个时候可以认为你(或你的车)应该对被无辜碾压的行人负责,因为正是你(或你的车)的规避动作导致了这一事故的发生。由此带来的道德和法律后果就需要你(或车辆负责人)承担。
这样的状况可能在今天的汽车驾驶中也会出现,在发生事故时,你可能******地保护自己而给别人造成伤害。看起来和无人驾驶汽车造成的后果一样,但是人类不是全然理性的生物,在遇到紧急状况时并不能做出理智的决定——人类会感到惊慌。然而无人驾驶的机器就不一样了,它的决定都来自于经过了深思熟虑之后的程序和算法,由此带来的后果就不太容易让人原谅。而且如果是程序员故意设置这样的程序,那么甚至可以将这种事故定义为“蓄意谋杀”,即使是考虑不周,也可能被定义为“重大过失”。
不管哪种可能,对程序员和开发者来说都是难逃法律干系的。当科技公司用机器来取代人做决定的时候,也就给自己带来了新的责任和义务。
道德困境
但是别急,这样的问题难道在前端碰撞时就不存在吗?后端碰撞有什么不同?
其中最大的不同之处在于,追尾发生的时候,责任通常是在后车——通常是因为后车跟车太紧,没法对前车的动作做出及时的反应;或者后车驾驶员分心了。所以对于无人驾驶汽车而言,被追尾是没有法律责任的。而如果无人驾驶汽车在行进过程中发现了前方车辆,那么它就有责任进行规避,避免可能发生的事故。
在无人驾驶引起的伦理问题上,这两种情况也是不同的。这个问题有一个被称为“电车难题”的通用版本,由哲学家Phillipa Foot和Judith Jarvis Thomson提出,在这种情况下,无人驾驶汽车做出的规避选择是完全合法的:它躲开了可能直接造成的伤害,也没有给其他人带来直接的伤害,但是这种合法却是不道德的,所以也就是说,仅仅让无人驾驶汽车的程序满足法律规范是不够的。
无人驾驶技术是人工智能领域的一种,而人工智能研究与生俱来具有“哲学特质”。有学者认为,不同人工智能专家推出的人工智能产品背后有不同哲学预设和思路,由两个不同编程思维的机器预测同一件事就会得出不一样的结论;同样,也不能指望通过造一台机器解决所有问题,因为造机器的人本身是有限性的,选择也必须有所偏重。如何做到规避事故而又减少对他人未知的伤害,与之同时,又要符合道德和法律,这是对无人驾驶技术乃至人工智能领域的挑战。要好好的解决这个问题,也许需要伦理学家与人工智能学家好好沟通,人工智能涉及的问题需要与业界编程思路和哲学思辨相结合。