人工智能是否有风险

简介: 人工智能是否有风险

批判性思考人工智能

这一挑战经常由人工智能的支持者提出:如果一个机器人足够聪明,与自然人完全没有区别,那么它拥有公民权利难道不是道德和正确的吗?“杀死”这样的生物岂不是有错?

我的回答是,这样的生物不能被赋予公民权利,并且消除它本身并没有错。

回答通常是这样的:“这难道不是人类自我在说话吗?这就是基于基质的歧视,不是吗?”

不,不是。

创造类人人工智能就是伪造

以下是如何界定这个问题。想象一下,如果您制作了一张 100 元钞票的完美副本——我的意思是与政府发行的真钞完全没有区别。如果说您制作的这张钞票与真正的 100 元钞票价值不同,这是否只是任意歧视?当然不是。你所做的就是造假。造假是一种犯罪,并不是因为你白手起家对你的同胞不公平。这是一种犯罪,因为它有可能破坏经济,从而导致大规模混乱、饥饿、战争和死亡。事实上,假冒已被用作战争武器

创造类人人工智能就是创造假人,这对世界社会构成威胁,就像假币对世界经济构成威胁一样。

现在想象一下,如果每个人工智能在某个时刻都拥有公民权利。这意味着任何创造人工智能的人都将直接制造政治权力。想象一下,如果唐纳德·特朗普不仅有 5 个睁大眼睛、阿谀奉承的孩子,而是有 850 万个孩子——每个孩子都看不到他们尊敬的父亲的邪恶,并且每个孩子都拥有投票权。我们已经在现实生活中看到过这种事情的发生纽约总检察长的一项调查发现,FCC 网站上有 850 万条反对网络中立性的评论是在一场精心策划的活动中伪造的,目的是伪造对大型 ISP 议程的支持。

(进一步想象一下,如果人工智能犯了罪。你如何惩罚机器人?这有什么意义?人工智能也是不朽的。这种思路只会变得越来越黑暗。)

为了这种事,曾经发生过战争。美国内战主要是因为奴隶制而爆发。美国宪法的第一版不承认黑人的完整公民身份,因为这将赋予南方太多的政治权力。今天,华盛顿特区不是一个州的原因是,使其成为一个州会增强一个政党相对于另一个政党的权力。在一个投票权不断受到攻击的世界里,没有政府会将公民权延伸给机器人!

如果你在想,“但是如果人工智能不是任何人的隐藏代理人,而是作为具有自由意志的独立生物呢?” 好吧,这是另一种表达方式:这相当于向来自太空的任意入侵的非暴力外星人群体授予公民身份。由于是自由的,他们不一定会受到人类利益的威胁。您认为这会如何影响大众?

我很想说,当把机器人当作人对待时,道德并不重要。但更准确的说法是,有更高的道德在起作用:自然人类必须找到一种合理和平与和谐的方式共同生活。战争对我们的生意不利;这对我们的健康有害。因此,向公民承认人工智能是错误的,因为它无法避免这些后果

假冒人类无法测试

如果您要求 ChatGPT 进行测试,它不会。ChatGPT认为“测试”意味着浅层演示。你不能教它任何不同的东西,因为你根本不能教 ChatGPT 任何东西。但即使你将真实测试的任务分解并引导机器人完成它们,仍然存在一个无法克服的问题:测试是一项负责任的活动,而机器人没有能力承担责任。这意味着人类在测试过程中陪伴机器人需要做很多工作。

责任是无法伪造的事物之一,我们甚至不应该尝试这样做。假冒责任就是不负责任。

一个大的语言模型或许可以帮助我测试。它可以做很多技术性的事情。它不能做的是向我保证它确实做到了它所说的。有人可能会回答“但是詹姆斯,人类也是不可靠的!” 是的,他们是。我们知道如何对待不可靠的人,不是吗?我们可以跟他们讲道理,教育他们,起诉他们,制裁他们,监禁他们,让他们失去地位和收入。我们处理不负责任行为的制度是以人权和法律为基础的——所有这些制度都假设成年人会因为违反规范而损失惨重。所有这些的设计理念都是:我们或多或少都处于相同的生活状况。你和我表现得负责任,部分原因是我们不想惹麻烦;部分原因是我们不想惹麻烦。我们积极寻求适应我们所服务的人们,而不是安抚或欺骗他们,因为我们希望得到他们的尊重。

这些都不适用于人工智能!人工智能本质上并不依赖于人类社会。它本质上并不渴望被人类社会接受。任何这样做的人工智能都可能被黑客攻击,因此它实际上不这样做,而只是假装这样做。对大型语言模型的训练实际上训练它们非常擅长欺骗

我曾多次对 ChatGPT 感到沮丧。我对此有过争论。它对此的反应是可怕的。它要么为它没有做的事情道歉,要么只是拒绝回应我的论点。如果 ChatGPT 是真人,我几乎会立即解雇它。

人工智能可以帮助测试人员

只能要求人工智能以不需要责任和可靠性的方式提供帮助。例如:集思广益测试想法,或者创建一组浅层输出检查,我们可以快速验证它们是否完全被破坏。

然而,行业内的公司正在竞相开发测试工具,似乎可以借助人工智能来测试产品。相信很多人都会被这些骗局所骗。这将产生短期影响,使专业测试人员更难找到工作并发表意见。从长远来看,人工智能的愚蠢实验将与所有其他骗局一样。公司会发现他们仍然存在质量问题,并且仍然需要人们试图在为时已晚之前找到它们;

相关文章
|
4月前
|
机器学习/深度学习 数据采集 人工智能
【AI在金融科技中的应用】详细介绍人工智能在金融分析、风险管理、智能投顾等方面的最新应用和发展趋势
人工智能(AI)在金融领域的应用日益广泛,对金融分析、风险管理和智能投顾等方面产生了深远影响。以下是这些领域的最新应用和发展趋势的详细介绍
541 1
|
7月前
|
人工智能 安全
人工智能大模型井喷后需防风险
【1月更文挑战第21天】人工智能大模型井喷后需防风险
190 6
人工智能大模型井喷后需防风险
|
机器学习/深度学习 人工智能 监控
人工智能在金融风险管理中的应用
人工智能在金融风险管理中的应用已经取得了显著的进展,并在提高风险管理效率和准确性方面发挥了重要作用。通过信用评估、欺诈检测、投资组合管理等应用,人工智能为金融行业带来了新的机遇和挑战。然而,我们也要认识到人工智能在风险管理中可能面临的隐私、解释性和偏差等问题。未来,随着技术的发展,人工智能将在金融领域持续发挥重要作用,为金融行业创造更加安全和稳健的环境。
776 1
|
机器学习/深度学习 人工智能
基于人工智能的【患肺癌病】风险预测与分析(下)
基于人工智能的【患肺癌病】风险预测与分析
151 0
|
人工智能 数据处理
基于人工智能的【患肺癌病】风险预测与分析(上)
基于人工智能的【患肺癌病】风险预测与分析
204 0
|
机器学习/深度学习 人工智能 搜索推荐
|
机器学习/深度学习 人工智能 自然语言处理
在企业中使用人工智能驱动的聊天机器人的风险
在企业中使用人工智能驱动的聊天机器人的风险
126 0
|
机器学习/深度学习 人工智能 监控
人工智能的三大风险以及如何避免
如果企业正在实施一个大规模的人工智能项目,那么应该如何准备?以下是与人工智能相关的三个最重要的风险,以及如何预防和减轻它们。
183 0
人工智能的三大风险以及如何避免
|
机器学习/深度学习 人工智能 运维
如何管理人工智能风险和安全?
在大多数组织中,人工智能模型是“黑匣子”,只有数据科学家知道人工智能到底做什么。这可能会给组织带来重大风险。
如何管理人工智能风险和安全?
|
机器学习/深度学习 人工智能 监控
人工智能的主要风险因素有哪些?
人工智能的主要风险因素有哪些?
376 0
下一篇
DataWorks