从达拉斯事件看机器人武器的伦理困境:我们恐惧的到底是什么?

简介: 当地时间 7 月 7 日,大批民众聚集在达拉斯市中心,为在明尼苏达州和路易斯安那州发生的两起非裔男子被警察枪杀的案件「Black Lives Matter」游行抗议。

当地时间 7 月 7 日,大批民众聚集在达拉斯市中心,为在明尼苏达州和路易斯安那州发生的两起非裔男子被警察枪杀的案件「Black Lives Matter」游行抗议。20 时 45 分左右,游行队伍行进至 Lamar 大街和 Main 大道时突发枪击,人群立刻分散各处寻找掩护,场面一度混乱。现场警车与直升机轰鸣,全副武装的执法人员在现场。有民众表示,至少听到 30 声枪响。


这一针对警方的暴力事件导致 5 名警察死亡、7 名警察受伤。当地警方称,枪手 Micah Xavier Johnson 今年 25 岁,是一名退伍军人,作案动机很可能是因为对「警方对黑人的暴力执法」不满。


这一事件过程中,枪手和警方进行了数小时的对峙。最终,达拉斯警方将 1 磅 C4 炸药安装在机器人的机器臂上,然后通过远程控制的方式让机器人接近嫌犯后引爆了炸弹,炸死了嫌犯。

微信图片_20211126222213.jpg所谓的「警察使用机器人杀人事件」迅速引发各大媒体关注。大众态度可谓喜忧参半。


大多数人表示,警方及时止损,成功防止了更大悲剧的发生。「我认为,我们所有人在第一时间里应该感到如释重负,」美国科学技术中心主管 Michael Kalichman 说,「......我们能够确定的是这次行动让一个原本会造成更大损失的悲剧提前结束了。......」也有达拉斯人在 Medium 上撰文表示,达拉斯警方处理得当。


不过,庆幸成功避免更大悲剧的同时,隐忧和质疑也如影相随。警方的做法是否合理?是否意味着警察军队化的开始?


是否合法合理?


美国警方使用机器人已经有很长时间了。大众之所以会有这样的疑问,原因在于这次使用机器人的行为与以往经验不同。


过去,警方主要让机器人从事相对中立(中性)行为,比如,给嫌疑犯、人质或其他人员传递物品,或者用于分散对方注意力,与嫌疑犯交流等。去年,一把持有匕首的嫌疑犯威胁要跳下大桥(位于加州圣何塞),警方通过机器人给对方送去手机和匹萨,让其冷静下来,随后成功将其拘捕。2014年12月,阿尔伯克基警方使用机器人部在一间汽车旅馆的房间里部署化学武器,房间里持有枪支的嫌疑人最后缴械投降。


但在这次事件中,机器人被直接用于剥夺对方生命,也是美国警方首次使用机器人载爆炸物,开了「先例」。人们自然而然会担忧,其他警察局会否效法这种行为?正如 Michael Kalichman 所言,「我们还是不得不思考这种事情会不会在别的地方再次发生。」


不过,无论是警方还是刑事法律专家、机器人技术专家都认为,警方行为合法。关键理由:人类始终牢牢支配着机器人,或者说,这个机器人载爆炸物并非自主型武器。


新南威尔士大学的人工智能教授 Toby Walsh 反对将这次事件视为科幻小说噩梦般场景的实现,他说:很简单,机器人仍然是受人类远程控制的。这和远程遥控飞行在伊拉克、巴基斯坦或其他地区上空的杀人无人机没什么两样。「人类仍然掌控着机器人,这是件好事。」


卡耐基梅隆大学的机器人技术教授 Red Whittaker 认为,事实上,机器人不过一个工具而已。具备这些功能的工具已经存在好多年了。远程控制——无异于扣动扳机或者扔手榴弹或者其他可能的行为。


与学界观点稍有不同,警方更多强调对警员安全的维护:面对致命危险,警察没有义务将自身置于险境。本质上,这和让狙击手从远处射击并无不同。


「我们没有其它选择,只能使用我们的炸弹机器人,我们将一个设备放在了它的扩展部分,然后在目标位置引爆。」达拉斯警察局长 David Brown 在事件后一天的新闻发布会上说,「其它选择会将我们的警员暴露在致命的危险中。」


达拉斯市长 Mike Rawlings 在上周五告诉记者,他知道未来再次遇到这种情况时警方还是会采取这种措施,但是它只能被当做「最终手段」。「关键是让警察从伤害中脱离出来,」他说。


之后在接受 CNN 采访时他又表示枪手—— 25 岁的前陆军预备役士兵 Micah Xavier Johnson 有「聪明的头脑,下定决心要伤害更多警员。如果没有我们的行动,他就会伤害更多警员。所以,在我看来,我们别无选择,只能使用所有必要的工具来终止这场对峙。」


警方军队化?执法还是战争?


有观点表示,警方的任务是执法,不是宣战,是否需要这种军队化的装备?或许,这个问题应该置换成:如果犯罪嫌疑人的攻击力越来越强,执法手段是不是也应该与时俱进?


据报道,这个机器人由军火商诺斯洛普·格鲁门公司制造,常被警察、军队和世界各地的紧急事件处理人员用来处理远程拆弹等任务。该机器人使用轮子前进,重量大约为 220 千克,配备了多种传感器和一个带吸盘的机器臂。其型号为 Remotec F5。类似的遥控四轮驱动机器人早就被美军和美国警察部队广泛改装并用于拆弹任务或其他维持和平的任务。


警方的装备升级渊源,可溯及上世纪 80 年代。当时,由于美国毒品犯罪猖獗,毒枭火力强悍,美国国会通过了一个「美军 1033 计划」,授权美国警察部队向美国军队购买多余的武器。因此,达拉斯警察依据该法案向军方购买了 Remotec F5、MARCbot IV 等多款爆炸拆除机器人。


稍作深入思考,我们不难理解上述现象:驱动军事技术演化的首要因素就是救命,或者说,风险减少。让机器为人类上刀山、下火海,将伤亡降至最低,这里的风险可以延伸至来自犯罪嫌疑人的致命攻击。达拉斯警方购买、使用装备的行为,不仅合法,也是军事技术演进使然。


曾担任 LAPD SWAT 助理指挥官(assistant unit commander)长达十三年的退休警官 Ron McCarthy  坦言,这些机器很方便很有用,在这次事件中使用这些武器很完美。如果有人威胁到公民或者警方,我们不会让警员冒生命危险。


密苏里-圣路易斯大学的犯罪学家  David Klinger 分析地很清楚,「法律并不区分各种传递致命武器的系统种类。如果警员可以射击犯罪嫌疑人,他们就可以使用其它任何致命武器,这是合理的。如果你能射击某人,或者可以碾过嫌疑人,我留意过有几次警方还使用了燃烧弹,为什么不能合法使用爆炸装置?」


真正的难题:自主型系统

微信图片_20211126222249.jpg

这次事件的发酵与夺人眼球,主要源自美国由来已久的矛盾(白人警察与黑人平民),或者说,更多的是一个社会文化问题。


达拉斯市所面临的种族问题却无可回避。作家 Albert Samaha 在 BuzzFeed 上写道:


这座城市……涉及警方的枪击事件已经减少了。从 2010 年到 2014 年,达拉斯警方共射杀了 34 人——其中超过一半是黑人——人均比率比休士顿、芝加哥、洛杉矶和纽约都高。


目前的报道并没有增进我们对基于人工智能的自主型系统(包括武器)难题的思考。比如:


1.失灵。自主机器决策导致相关死亡事件。今年 5 月份,佛罗里达一位特斯拉 Model S 车主在使用「Autopilot」自动驾驶功能时发生事故死亡。特斯拉公司在调查原因后在博客写道:「在光线过于强烈的环境下,无论是自动驾驶系统还是驾驶员都未能及时察觉前方拖车的边缘,因此未能施加制动。在极为罕见的情况下,拖车高度与其在马路当中的位置造成特斯拉 Model S 直接撞进了拖车底部。」


2.道德两难。自动驾驶系统是否应该不惜一切代价来保护它们的乘客?还是应该通过编程选择牺牲乘客,从而保护他人?近期《科学》杂志网络版报告指出,尽管一些人争论道,自动驾驶汽车控制的道路会更安全,但提供这种安全性的特有编程也许会阻止它们最终上路。


3.滥用。2015年,科技媒体 The Intecept 刊登了一份文件,详述了NSA的天网计划(SKYNET programme)。根据文件显示,这项计划旨在大规模监控巴基斯坦移动电话网络,然后使用机器学习算法分析5500万用户移动网络元数据,并试图评估每个人成为恐怖分子的可能性。然而,根据这种机器学习程序,最高得分目标是 Ahmad Zaidan,他长期担任半岛电视台驻伊斯兰堡的总编辑。


4.歧视。算法和数据驱动的产品总会反映设计者本身的设计选择,假设这些歧视不存在是不负责任的行为。有证据表明在线购物,以及预设为由中立算法驱动的定价策略中都存在歧视。另外一项研究中,哈佛教授 Latanya Sweeney 分别搜索了白色人种儿童(Geoffrey, Jill, Emma)和黑色人种儿童(DeShawn, Darnell, Jermaine)的常用名字,她发现,80%的「黑色」姓名搜索旁边推送的 Google AdSense  广告会出现「逮捕」字样,而「白色」姓名搜索中该数据低于30%。


5.控制。随着技术的进步,自动化程度更高的机器人也出现了。自主杀人机器人的正式称呼是「致命自主武器系统(LAWS)」。从已经公开的消息看,至少中国、美国和俄罗斯已经在从事这方面的研究了。比如,美国海军舰载的「密集近防御系统」(Phalanx)。前段时间,美国的一款人工智能系统甚至在模拟空战中击败了人类战术专家 。而环球网也曾报道:


中国、俄罗斯和美国正致力于可以独立执行军事行动的自动化机器人。美国国防部常务副部长罗伯特•沃克发表声明称,五角大楼有落后的危险。他称:「我们知道中国已经在机器人和自动化领域进行了巨大投资。」俄罗斯国防部第一副部长兼武装力量总参谋长格拉西莫夫大将称:俄罗斯也将打机器人战,在不久的将来,俄罗斯有可能开发出完全机器人化的部队独立完成军事任务。


谁该为这些自主系统的行为负责?如何给自动化程度更高的人工智能系统安置一个「红色按钮」?


6.划分防御/攻击。最近,军火商开发出了首个攻击性自助武器。以色列航空工业公司的「哈比和哈洛普」无人机可自动追踪敌方航空系统的无线电发射,并通过撞击摧毁目标,该公司表示,无人机「已经销往世界各地。」


问题是,如果使用智能武器,那么,传统的自卫与侵犯之间的界限也将难以维系。


加利福尼亚大学伯克利分校的的人工智能专家 Stuart J. Russell 是禁止自主化武器运动的领袖,他说,人们需要搞清楚界限划在哪里,我们应该站在这条界线的正确一边。「总的说来,清晰界分进攻和防卫性武器,对此,我没有信心。」


华盛顿的政策组织、新美国安全中心(New American Security)的武器分析员Paul Scharre 说,「如果界限很容易划清,国家早就同意研发『防御型』武器了。」


回避不了的难题


《华盛顿时报》报道,达拉斯警察局局长 David Brown 在上周日为其使用致命机器人杀死枪杀警察的犯罪分子的决定进行了辩解,他说下一次遇到这种充满不确定性的危险情况时还会使用类似的致命机器人。「是我下的决定。在相同的情况下我还会作出此决定,」Brown 局长对 CNN 说。


达拉斯市长 Mike Rawlings 也对警方的行动表示了支持,他说他为警方感到「骄傲」。


不过,减少风险的人类本能(想想霍布斯吧)和军事经费不仅会继续推动军事技术的演化,也会推动军事技术向执法机构流动。总有一天,上面所有自主型武器问题,也是警方需要面对的难题。 「骄傲」、「在相同的情况下我还会作出此决定」这样的回答也不再能满足大众的要求。

相关文章
|
人工智能 安全 机器人
儿童不应该为早教机器人的伦理问题买单
1959年,恩格尔伯于Unimation公司研制出了世界上第一台工业机器人,60年后,机器人深入至人们工作生活的各个方面。其实,在机器人发展史中,教育机器人承载着人们对未来机器人科技的重视与期待。从全球市场来看,自2011年起,全球教育机器人市场规模逐年增长,市场规模总体呈现稳步上升态势。
儿童不应该为早教机器人的伦理问题买单
|
人工智能 达摩院 算法
机器人怕“疼”,是科技的进步还是伦理的挑战
随着时代的发展,科技的进步,机器人已经越来越多的走进人们的生活场景中,但我们的传统认知,机器人大多还是机器的属性,也更多的存在于辅助人类做一些简单的机械劳动和体力劳动中。
2554 0
机器人怕“疼”,是科技的进步还是伦理的挑战
|
2月前
|
传感器 人工智能 监控
智能耕耘机器人
智能耕耘机器人
43 3
|
6月前
|
人工智能 自然语言处理 机器人
智能电话机器人核心技术:自然语言处理
什么是自然语言处理? 自然语言处理是计算机科学领域与人工智能领域中的一个重要方向.它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法.自然语言处理是一门融语言学、计算机科学、数学于一体的科学.因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别. 自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统.因而它是计算机科学的一部分. 自然语言处理(NLP)是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域.
|
1月前
|
传感器 人工智能 自然语言处理
智能咖啡厅助手:人形机器人 +融合大模型,行为驱动的智能咖啡厅机器人
智能咖啡厅助手:人形机器人 +融合大模型,行为驱动的智能咖啡厅机器人
智能咖啡厅助手:人形机器人 +融合大模型,行为驱动的智能咖啡厅机器人
|
2月前
|
传感器 机器学习/深度学习 算法
植保机器人具备智能感知与决策能力
植保机器人具备智能感知与决策能力
19 2
|
3月前
|
传感器 搜索推荐 机器人
具身智能赋能人形机器人产业将蓬勃发展
【1月更文挑战第12天】具身智能赋能人形机器人产业将蓬勃发展
45 3
具身智能赋能人形机器人产业将蓬勃发展

热门文章

最新文章