批判性思考人工智能
这一挑战经常由人工智能的支持者提出:如果一个机器人足够聪明,与自然人完全没有区别,那么它拥有公民权利难道不是道德和正确的吗?“杀死”这样的生物岂不是有错?
我的回答是,这样的生物不能被赋予公民权利,并且消除它本身并没有错。
回答通常是这样的:“这难道不是人类自我在说话吗?这就是基于基质的歧视,不是吗?”
不,不是。
创造类人人工智能就是伪造
以下是如何界定这个问题。想象一下,如果您制作了一张 100 元钞票的完美副本——我的意思是与政府发行的真钞完全没有区别。如果说您制作的这张钞票与真正的 100 元钞票价值不同,这是否只是任意歧视?当然不是。你所做的就是造假。造假是一种犯罪,并不是因为你白手起家对你的同胞不公平。这是一种犯罪,因为它有可能破坏经济,从而导致大规模混乱、饥饿、战争和死亡。事实上,假冒已被用作战争武器。
创造类人人工智能就是创造假人,这对世界社会构成威胁,就像假币对世界经济构成威胁一样。
现在想象一下,如果每个人工智能在某个时刻都拥有公民权利。这意味着任何创造人工智能的人都将直接制造政治权力。想象一下,如果唐纳德·特朗普不仅有 5 个睁大眼睛、阿谀奉承的孩子,而是有 850 万个孩子——每个孩子都看不到他们尊敬的父亲的邪恶,并且每个孩子都拥有投票权。我们已经在现实生活中看到过这种事情的发生。纽约总检察长的一项调查发现,FCC 网站上有 850 万条反对网络中立性的评论是在一场精心策划的活动中伪造的,目的是伪造对大型 ISP 议程的支持。
(进一步想象一下,如果人工智能犯了罪。你如何惩罚机器人?这有什么意义?人工智能也是不朽的。这种思路只会变得越来越黑暗。)
为了这种事,曾经发生过战争。美国内战主要是因为奴隶制而爆发。美国宪法的第一版不承认黑人的完整公民身份,因为这将赋予南方太多的政治权力。今天,华盛顿特区不是一个州的原因是,使其成为一个州会增强一个政党相对于另一个政党的权力。在一个投票权不断受到攻击的世界里,没有政府会将公民权延伸给机器人!
如果你在想,“但是如果人工智能不是任何人的隐藏代理人,而是作为具有自由意志的独立生物呢?” 好吧,这是另一种表达方式:这相当于向来自太空的任意入侵的非暴力外星人群体授予公民身份。由于是自由的,他们不一定会受到人类利益的威胁。您认为这会如何影响大众?
我很想说,当把机器人当作人对待时,道德并不重要。但更准确的说法是,有更高的道德在起作用:自然人类必须找到一种合理和平与和谐的方式共同生活。战争对我们的生意不利;这对我们的健康有害。因此,向公民承认人工智能是错误的,因为它无法避免这些后果。
假冒人类无法测试
如果您要求 ChatGPT 进行测试,它不会。ChatGPT认为“测试”意味着浅层演示。你不能教它任何不同的东西,因为你根本不能教 ChatGPT 任何东西。但即使你将真实测试的任务分解并引导机器人完成它们,仍然存在一个无法克服的问题:测试是一项负责任的活动,而机器人没有能力承担责任。这意味着人类在测试过程中陪伴机器人需要做很多工作。
责任是无法伪造的事物之一,我们甚至不应该尝试这样做。假冒责任就是不负责任。
一个大的语言模型或许可以帮助我测试。它可以做很多技术性的事情。它不能做的是向我保证它确实做到了它所说的。有人可能会回答“但是詹姆斯,人类也是不可靠的!” 是的,他们是。我们知道如何对待不可靠的人,不是吗?我们可以跟他们讲道理,教育他们,起诉他们,制裁他们,监禁他们,让他们失去地位和收入。我们处理不负责任行为的制度是以人权和法律为基础的——所有这些制度都假设成年人会因为违反规范而损失惨重。所有这些的设计理念都是:我们或多或少都处于相同的生活状况。你和我表现得负责任,部分原因是我们不想惹麻烦;部分原因是我们不想惹麻烦。我们积极寻求适应我们所服务的人们,而不是安抚或欺骗他们,因为我们希望得到他们的尊重。
这些都不适用于人工智能!人工智能本质上并不依赖于人类社会。它本质上并不渴望被人类社会接受。任何这样做的人工智能都可能被黑客攻击,因此它实际上不这样做,而只是假装这样做。对大型语言模型的训练实际上训练它们非常擅长欺骗。
我曾多次对 ChatGPT 感到沮丧。我对此有过争论。它对此的反应是可怕的。它要么为它没有做的事情道歉,要么只是拒绝回应我的论点。如果 ChatGPT 是真人,我几乎会立即解雇它。
人工智能可以帮助测试人员
只能要求人工智能以不需要责任和可靠性的方式提供帮助。例如:集思广益测试想法,或者创建一组浅层输出检查,我们可以快速验证它们是否完全被破坏。
然而,行业内的公司正在竞相开发测试工具,似乎可以借助人工智能来测试产品。相信很多人都会被这些骗局所骗。这将产生短期影响,使专业测试人员更难找到工作并发表意见。从长远来看,人工智能的愚蠢实验将与所有其他骗局一样。公司会发现他们仍然存在质量问题,并且仍然需要人们试图在为时已晚之前找到它们;