[译]人工智能带给我们的恐惧

简介:

几年以前我和一个刚刚创业的朋友品茶小聚,他刚过不惑之年却饱受背伤之苦,父亲也疾病缠身,一切痛楚让他觉得被生活所拖累,尝尽命运捉弄之苦。“不怕你笑话”,他提到,我现在真是“四处拜佛,以求得上天保佑有奇迹降临我身”。


我的朋友浪迹科技圈,亲眼见证了微处理器频繁迭代更新以及互联网的迅猛发展,但那也不足以让他确信,在他发生中年危机之前——机器的智慧会超越人类,这才是未来学家称之为见证奇迹的时刻。一个善良的超级智能可以快速地分析出人类遗传密码并解开永恒青春的秘密,或者至少它可以知道如何治疗一个人的背痛。


但是如果人工智能不“善良”又当如何?,牛津大学的未来人类研究所负责人尼克·博斯特伦在他的《超级人工智能》一书中描述了如下场景,而这个描述直接引发了一系列关于未来人工智能的口水仗。是什么场景呢,假设有一台我们称之为“高效回形针生产者”的机器——它能制造出尽可能多的回形针。好,现在想象这机器不知何故突然变得不可思议的聪明,给它制造环形针的任务后,它决定先创造出更高效的回形针制造机器——直到就像古希腊国王迈达斯一样,它会把几乎所有的东西都变成环形针。


[译者注:森林之神西勒诺斯和酒神狄俄尼索斯为了回报古希腊国王迈达斯的盛情款待,许诺可以实现他的任何愿望。贪财的迈达斯请求让自己碰到的东西都变成黄金,但他很快就赶到后悔了,因为就连他的食物和水,甚至他的女儿也都变成了黄金。迈达斯在狄俄尼索斯指示下在河中沐浴后才得以解脱,据说后来河里的沙子中也含着金子。]


没问题,你可能淡定地说:可以通过程序准确控制,让它只生产出一百万环形针之后停止运行即可。但是假如它造出环形针之后决定去检验他的产出怎么办?计数正确吗?这种不确定性怎么检查?为了确保正确性,它必须要更加聪明,所以这个超级智能机器制造了一些以前没人发明的原始计算材料(称之为:computronium),用它们来检查每一个不确定性。但是每一个新的不确定性会引发更多的数字化不确定性,所以如此反复,直到整个地球都会变成computronium——而不是一百万个回形针。


博斯特罗姆并不认为高效回形针生产者能够成为现实,准确来讲,它仅仅是一个头脑中的概念实验,一个来揭示“即使再仔细的系统设计也无法限制极端机器智能”的设计。但是他相信超级智能会出现,而且是相当牛的,他认为这个超级智能会自主决定不依赖身边的人类,或者作出一些毁灭世界的事情来。


如果这种论调你觉得很荒唐,也有一些人和你一样,评论家比如机器人先驱罗德尼布鲁克斯说,“惧怕人工智能失控的那些人对电脑在做什么和说它们在思考或者变得更加聪明有所误解”。从这个角度来看,博斯特罗姆所描述的超级人工智能也许是在遥远的未来,也许是永远也不可能的。


然而还是有很多深思熟虑的聪明人同意博斯特罗姆的观点并忧心忡忡,为啥?


意志

从一开始,机器是否能思考这个问题就给计算科学带来了一丝阴影,艾伦图灵在1950年就提出,机器可以像小孩子一样被教诲。约翰麦卡锡——LISP语言的发明者,在1955年创造了“人工智能”这个概念。在上世纪六十和七十年代,人工智能的研究专家们开始利用计算机来识别图像、翻译文字、理解自然语言而非程序代码,最终计算机会具有思考和说话能力并且会去作恶的观点就慢慢渗透到主流文化中。甚至有点超越了经典电影《2001:太空奥德赛》,1970年的电影《巨人:福宾计划》描述了一个巨大的闪烁的电脑主机给地球带到了核毁灭的边缘。十三年后,另外一个同类题材的《战争游戏》也进行了探讨,该片讲述了1973的西部世界机器人变得疯狂并开始杀戮。


当人工智能的研究偏离了当初的崇高目标,预算也变得紧张,于是人工智能的冬天来到了。即便如此,“智能机器”的火炬在上世纪八十年代和九十年代,被科幻作家弗诺文奇高举和传递下来,他提出和了推广一个经典的概念叫“技术奇点”;研究人员比如机器人专家莫拉维克,计算机视觉方面的权威;工程师兼企业家雷库兹韦尔,1999年《灵魂机器的时代》一书的作者。而图灵则假定了一个像人一样的智能,文奇、莫拉维克和库兹韦尔三人思考的更深远一些:当一个计算机可以独立设计解决方案来达成目标时,它同时就很有可能具有了反思的能力——进而就能够修改程序使自己变得更加智能。在很短的时间内,这样的计算机更很有可能设计更适合自己的硬件。


就像库兹韦尔描述的那样,如此会开启一个美丽的新纪元。这样的机器会具有洞察力和忍耐力(皮秒单位)来解决纳米技术和星际飞行的中的问题。它们会帮助突破人类的条件限制并且能够让我们把意识变成不朽的数据,智慧将分散遍布到整个宇宙。


你同样可以听到与如此阳光乐观态度截然相反的说法,史蒂芬霍金就这样警告说,因为人类是无法与强大的人工智能抗衡的,这很可能会导致人类的终结。在读完《超级智能》之后,企业家艾隆•马克斯在推特上说,“希望我们不只是数字超级智能生物的引导装载程序。但不幸的是,这越来越变得可能”,马斯克随后给未来生活研究所投资了一千万美元。与博斯特罗姆的中心不同,这个组织的目的是致力于缓解人类面临的生存风险。


没有人会说现在就有那种超级智能存在,事实上,我们还没有清晰的路径或者是解决方案来实现一个通用的人工智能。关于人工智能的最新进展,比如苹果公司的Siri语音助手到谷歌的无人驾驶汽车,同样也揭示出当前技术的严重限制,两者在面对未知场景时都会变得不知所措。人工神经网络可以实现自学并且在一大推图片中识别出猫咪,但是前提是必须有成百上千的样本,即使这样其准确性也不是特别高。


怀疑论者如布鲁克斯,iRobot和反思机器人的创始人,在这一点上也有话说。即便是相比以前电脑的功能,能认出一只猫确实令人印象深刻,但是这台机器没有意识——它并不知道猫是什么以及图片上发生了什么,更别说无数的人类所具有的洞察力。从这种角度来看,人工智能会发展向智能机器,会从事更多的工作——这点会超出像博斯特罗姆这些人的想象。而且即使如果能够实现,也未一定要把人工智能发展到具有知觉的能力。


基于当前人工智能的情形来推断,就说它迫在眉睫,“简直就和看到了内燃机的出现就跳跃式的想到星际舰队立马就能实现一样”,布鲁克斯最近在Edge.org文章中写道,“那种邪恶的人工智能无需担忧,至少几百年内不会出现”。


保险政策

即便超级智能出现的几率非常遥远,或许这也是不负责任的冒险。一位加州大学伯克利分校计算科学的教授斯图尔特J.罗素分享了博斯特罗姆的观点。罗素和彼得诺维格(库兹韦尔在谷歌的同事)合作完成了《人工智能:一种现代方法》,该书是近二十年内的人工智能领域经典教科书。


“很多聪明的学者没有找到门路”,罗素告诉我。他指出,在过去十年里人工智能已经有了非常大的发展,而且当公众或许可以用摩尔定律来理解这个进展,实际上,当今的人工智能是非常基础的,像深度学习技术的应用,让计算机不断加深它们对世界的理解。


因为谷歌、脸书以及其它公司积极探索实现智能的、学习的机器,他推理到,“在未清楚考虑所有的潜在风险之前,请不要去全力发展超级智能这件事,否则就有些愚蠢”。罗素同时做了一个类别,“这就像是聚变研究,如果你问一个研究人员他在做什么?他们会说他们正致力于密度封,如果你想要无限的能量,你最好包括聚变反应”。类似的,他说,“如果你想要无限的智能,你最好指出如何让电脑根据人类的需求摆放”。


博斯特罗姆的书就是这样做的研究提议。一个超级智能将像神一样,但是它将会因为恨或者爱做什么,那取决于我们(就是工程师),就像任何父母,我们必须教给孩子们一系列具有正能量的人性的价值观,我们基本上是在告诉一个神让它知道应该如何对待我们人类自己。怎么继续?


博斯特罗姆从思想者以利以谢尤德考斯基得到的一个观点,利以谢尤德考斯基曾经提到,“相干外推的意志”——那就是每个人的“最好自我的”共识来源。我们希望人工智能将会给我们一个富裕、幸福以及满足的生活:治愈背伤以及帮助我们登陆火星。由于我们人类永远不会在一件事上达成完全的一致,我们有时需要它来为我们决策——立足全局帮助人类获取最好的决定。然后我们如何把这些价值观植入到我们的超级智能(或者是潜在的超级智能)呢?哪种数学算法能够定义它们?这些都是问题,博斯特罗姆觉得都应该现在解决,“这是我们这个时代的首要任务”。


对于老百姓而言,没必要因为邪恶机器人的事情而杞人忧天,以我们现在的技术水平离超级智能还远着呢。再唠叨一下,那些全球大公司热衷于研究如何让他们的电脑更加智能,确实,真正的人工智能会让这些公司取得不可思议的商业成就,但是他们也必须要充分考虑到这件事情的潜在负面影响并且能够清楚的知道应该如何避免。


这里还有一些更细致的建议——没有所谓关于人工智能不断逼迫的威胁,这是未来生活研究所(获得马斯克捐助的一个组织)官网上一篇公开信的论调,信中呼吁,应当在避免潜在陷阱的同时最大化从人工智能研究中获益,而不是一味的强调其潜在的灾难威胁。联名签字的不仅仅有人工智能的门外汉比如霍金、马斯克和博斯特罗姆,还有突出的计算科学家(如丹尼斯哈萨比斯,顶级人工智能专家)。你可以看到他们的背景,毕竟,如果他们开发的人工智能没有传递人类正能量的价值属性,那就意味着他们没有聪明到能够控制他们创造出来的东西。


原文发布时间为:2015-02-24

本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“BigDataDigest”微信公众号

相关文章
|
人工智能 安全 算法
人工智能取代人类的工作的恐惧被夸大了吗?
人工智能(AI)正在改变美国和全球各地未来的工作,那么你的工作安全吗?如今,人们不难理解为什么有那么多人担心人工智能会取代他们的工作岗位。似乎每个月都有调查报告发出警告,这些报告估计将有多少工作人员会失业。
196 0
|
25天前
|
机器学习/深度学习 存储 人工智能
人工智能在医疗领域的应用与挑战
【10月更文挑战第21天】 本文深入探讨了人工智能(AI)在医疗领域的应用现状与面临的挑战。随着科技的飞速发展,AI技术正逐步渗透到医疗行业的各个环节,从疾病诊断、治疗方案制定到患者管理等方面发挥着重要作用。然而,在推动医疗进步的同时,AI也面临着数据安全、隐私保护以及伦理道德等方面的严峻挑战。本文旨在全面分析AI在医疗领域的应用前景,并针对其面临的挑战提出相应的解决策略,以期为未来医疗行业的发展提供有益的参考。
94 6
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
人工智能在医疗诊断中的应用与前景####
本文深入探讨了人工智能(AI)技术在医疗诊断领域的应用现状、面临的挑战及未来发展趋势。通过分析AI如何辅助医生进行疾病诊断,提高诊断效率和准确性,以及其在个性化医疗中的潜力,文章揭示了AI技术对医疗行业变革的推动作用。同时,也指出了数据隐私、算法偏见等伦理问题,并展望了AI与人类医生协同工作的前景。 ####
31 0
|
18天前
|
机器学习/深度学习 人工智能 搜索推荐
探索人工智能在现代医疗中的革新应用
本文深入探讨了人工智能(AI)技术在医疗领域的最新进展,重点分析了AI如何通过提高诊断准确性、个性化治疗方案的制定以及优化患者管理流程来革新现代医疗。文章还讨论了AI技术面临的挑战和未来发展趋势,为读者提供了一个全面了解AI在医疗领域应用的视角。
24 0
|
10天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建
|
4天前
|
数据采集 人工智能 移动开发
盘点人工智能在医疗诊断领域的应用
人工智能在医疗诊断领域的应用广泛,包括医学影像诊断、疾病预测与风险评估、病理诊断、药物研发、医疗机器人、远程医疗诊断和智能辅助诊断系统等。这些应用提高了诊断的准确性和效率,改善了患者的治疗效果和生活质量。然而,数据质量和安全性、AI系统的透明度等问题仍需关注和解决。
71 10
|
11天前
|
机器学习/深度学习 人工智能 算法
探索人工智能在医疗诊断中的应用
本文深入探讨了人工智能(AI)技术在医疗诊断领域的革新性应用,通过分析AI如何助力提高诊断准确性、效率以及个性化治疗方案的制定,揭示了AI技术为现代医学带来的巨大潜力和挑战。文章还展望了AI在未来医疗中的发展趋势,强调了跨学科合作的重要性。 ###
45 9
|
14天前
|
机器学习/深度学习 数据采集 人工智能
深度探索:人工智能在医疗影像诊断中的应用与挑战####
本文旨在深入剖析人工智能(AI)技术在医疗影像诊断领域的最新进展、核心优势、面临的挑战及未来发展趋势。通过综合分析当前AI算法在提高诊断准确性、效率及可解释性方面的贡献,结合具体案例,揭示其在临床实践中的实际价值与潜在局限。文章还展望了AI如何与其他先进技术融合,以推动医疗影像学迈向更高层次的智能化时代。 ####
|
18天前
|
机器学习/深度学习 人工智能 自然语言处理
探索未来编程:Python在人工智能领域的深度应用与前景###
本文将深入探讨Python语言在人工智能(AI)领域的广泛应用,从基础原理到前沿实践,揭示其如何成为推动AI技术创新的关键力量。通过分析Python的简洁性、灵活性以及丰富的库支持,展现其在机器学习、深度学习、自然语言处理等子领域的卓越贡献,并展望Python在未来AI发展中的核心地位与潜在变革。 ###
|
18天前
|
机器学习/深度学习 数据采集 人工智能
探索人工智能在医疗诊断中的应用与挑战
随着人工智能技术的飞速发展,其在医疗领域的应用日益广泛,尤其是在疾病诊断方面展现出巨大的潜力。本文将深入探讨AI技术在医疗诊断中的应用现状、面临的挑战以及未来的发展趋势,旨在为相关领域的研究者和从业者提供参考和启示。
37 2
下一篇
DataWorks