最近在参加于谷歌(Google)公司楼顶举行的自动驾驶原型车体验项目期间,以及后来在该公司加州山景城总部附近城市街道上进行的改装雷克萨斯(Lexus)SUV试驾中,我有机会见识了自动驾驶技术是如何对现实世界的各种不同场景做出反应的。谷歌自动驾驶汽车的座舱里没有方向盘,也没有油门和刹车踏板,谷歌为这场兜风设置了诸多障碍:如一位行人和一辆自行车闯进了汽车车道,以及前方驶出了另一辆汽车。
做好准备在加州山景城的谷歌公司楼顶试驾谷歌自动驾驶原型汽车吧!
随后我乘坐一辆改装的雷克萨斯SUV自动行驶在公共道路上,在此期间,一辆自行车在车前晃悠了好几个街区,一位老人家缓慢地斜穿过马路,一位女士在一条狭窄街道上从汽车后排抱出了一只小狗。我很好奇这些是不是也是预先设计好的。坐在前排的两位谷歌“安全驾驶员”之一确保他们没有进行事先安排,并补充表示,汽车对这位抱狗女士做出的反应很可能是由于误以为这位女士所抱的是一名婴儿。
这辆雷克萨斯突然停了下来,然后缓慢地绕过了这位女士和她的狗,在确保没有其他车从对面方向驶来之后越过了道路中心线。这就是自动驾驶汽车将不得不进行复杂评估的一个例子,而且随着自动驾驶汽车的上路——汽车比我们更清楚所在的位置、甚至更清楚我们的感受,一场伦理之争的关键开始浮出水面。
准备好乘坐一辆谷歌改装的雷克萨斯SUV,在加州山景城谷歌公司总部附近的街道上体验自动驾驶。
乘坐体验过谷歌自动驾驶汽车后的第二天,我赶到附近的桑尼维尔,参加了在梅赛德斯-奔驰(Mercedes-Benz)北美研发中心举办的一场活动。在从汽车设计到驾驶者人口特征的各种话题中,身兼Revs项目负责人的斯坦福大学教授克里斯·格迪斯(Chris Gerdes)就伦理学与自动驾驶汽车这一主题做了一番演讲。上周,在第22届法国(波尔多)智能交通系统展上,我主持了一个小组讨论,期间作家约翰·C.黑文斯(John C. Havens)思考了一个延伸到防碰撞以外的伦理问题。
在格迪斯的演讲中,他详细介绍了斯坦福大学如何开始进行一系列测试,以确定在关键时刻一辆机器人汽车可能会做出怎样的决定。这些测试包括对斯坦福大学X1测试车辆所进行的实验,以及在行驶道路上设置障碍。
格迪斯说,在汽车软件编程时设置基于各种价值优先顺序,这已经在技术层面上导致了“非常不一样的行为”,如“面对人和停放的车辆,首先应避让的是人”。作为测试的一部分,格迪斯补充道,Revs项目还一直与斯坦福大学哲学系进行合作。尽管从哲学家的角度看,涉及自动驾驶汽车的伦理问题“广无边际”,但格迪斯表示,该由工程师为驾驶者“限定问题”。
格迪斯还认为,自动驾驶软件这种新生的伦理编程可能成为该技术的一个“核心要求”。并且他告诫道,伦理可不像其他软件,汽车制造商们不能简单地从一级供应商处获得。
上周的智能交通系统展上,在由恩智浦半导体(NXP Semiconductors)主持的一个题为“互联移动:一个信任问题”(Interconnected Mobility: An Issue of Trust)的小组讨论中,约翰·C.黑文斯对自动驾驶汽车的伦理决策编程提出了不同看法。黑文斯是即将出版的新书《Heartificial Intelligence: Embracing Our Humanity to Maximize Machines》的作者,他预测,随着面部识别技术和生物医学传感器在自动驾驶汽车中普遍应用——以及所采集的信息随后被纳入物联网所聚合的规模更大的个人信息中——这将提出复杂的伦理问题。
黑文斯指出,比如,一辆汽车可能会识别出驾驶员生病了,而这可能引发一系列后果。例如,方向盘上的一个生物医学传感器可能会通知驾驶员的雇主,说他因为感冒而病倒,并命令汽车打道回府或者到医生那儿去。甚至可能更加可怕,该车可能感应出驾车者表现出倍感压力或抑郁的迹象,并将相关数据发送给公司老板、车险或健康保险提供商,甚至医药公司——这些公司可能进行预先干预或者向驾驶员定向发送广告。
自动驾驶技术有潜力降低甚至消除事故并防止交通死亡,还会节省燃油和浪费在交通中的时间。但尽管自动驾驶汽车现在能够与城市交通进行通信,甚或可以在高速路上行驶,但该技术所面临的最大挑战是如何应对伦理滑坡。
原文发布时间为:2015-10-15
本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“BigDataDigest”微信公众号