观点一
首先,从技术上来说,主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会自动地使强人工智能成为可能。
不妨看看现在人工智能技术所取得的成功。在图像识别、语音识别方面,机器已经达到甚至超过了普通人类的水平;在机器翻译方面,便携的实时翻译器已成为现实;在自动推理方面,机器很早就能进行定理自动证明;在棋类游戏方面,机器已经打败了最顶尖的人类棋手⋯⋯可以看出,上述成功有一个共同的特点:它们都是在考虑某种特定类型的智能行为,而不是“完全智能”行为。
观点二
第二,即便想研究强人工智能,也不知道路在何方。
实际上,我们完全有更强烈的理由认为,即便能精确地观察和仿制出神经细胞的行为,也无法还原产生出智能行为。正如国际人工智能终身成就奖得主、多伦多大学赫克托·莱韦斯克(Hector J. Levesque)教授在他2017 年的新著5 中所说,即便在最理想的情况下,神经科学家也仅是能获得“目标代码”而已,没有理由认为获得了目标代码就能还原出源代码,因为这样的“反向工程”即便对软件程序来说也几乎是不可能的,更何况神经细胞内部还存在“分布式表示”。
观点三
第三,即便强人工智能是可能的,也不应该去研究它。
任何一个科学研究领域或许都存在一些不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。强人工智能的造物将具有自主心智、独立意识,那么,它凭什么能“甘心”为人类服务、被人类“奴役”?
总结
总之,强人工智能出现的那一天,恐怕真的就是人类面临最大生存危机的时候。所以,对严肃的人工智能研究者来说,如果真的相信自己的努力会产生结果,那就不该去触碰强人工智能。