1.35 关于禁止杀人机器的话题
2015 年 4 月,来自全球 90 多个国家的众多政治家和军事专家们齐聚日内瓦,就“致命性自主武器系统”议题开展第二次会议讨论。致命性自主武器系统又名全自主武器,人们更习惯通俗的称它为杀人机器。作为与会代表,知名人工智能领域专家斯图尔特·罗素强调,人工智能研究团体已经开始意识到针对自主武器的忧虑正在逐渐蚕食其自身的声誉,同时他提到目前有数个专业性质的组织正在发起投票,从而了解人们针对这个话题的总体态度。
同年 7 月 28 日,超过一千位人工智能和机器人专家联合发布了一封公开信
1 ,提议针对那些超越“有意义的人类控制”的进攻性自动武器进行全面禁止。因而在此背景下,本刊也适时地将关注点放在全自主武器上,特别是倡导对于其研发、生产以及使用进行超前禁止,这也和大多数人工智能研究团体、超过 20 位诺贝尔和平奖得主及其他方面所发起的“反杀人机器运动”不谋而合。
毋庸置疑,人工智能和更大程度的自动化能为军事及人道主义事务带来益处。多数反对者其实仍然是人工智能和机器人研究的支持者。但是,将全自主机
器人武器化却被大多数人视作一种激进的行为。