【巨星陨落】霍金今日去世,但人类对宇宙和AI的探索永无止境

简介: 霍金去世的消息令全世界都陷入深切哀悼。霍金曾积极关注人工智能,指出我们要对AI发展保持警惕。3月14日也是爱因斯坦诞辰139年的日子,上帝在同一天送来了一位天才,而带走了另一位。人类对宇宙和AI的探索永无止境,让我们以这样的方式祭奠这两位伟人。

据英国天空新闻等多家媒体3月14日消息,著名物理学家史蒂芬 · 霍金(Stephen Hawking)去世,享年76岁。

霍金教授的孩子Lucy、Robert 和 Tim在一份声明中说:

我们亲爱的父亲今天去世了,我们深感痛心。

他是一位伟大的科学家,也是一位非凡的人,他的工作和成就将会留存多年。

他的勇敢和坚韧,他的才华和幽默激励了全世界的人们。

他曾经说过,“如果宇宙不是你所爱的人的家园,它就不是宇宙。”

我们将永远想念他。

斯蒂芬 · 威廉 · 霍金 (Stephen William Hawking),1942 年 1 月 8 日出生于英国牛津,是现代最伟大的物理学家和宇宙学家之一、20 世纪享有国际盛誉的伟人之一。

霍金近几年对人工智能十分关注,多次发表对人工智能发展的看法。他认为,人类需警惕人工智能的发展威胁,因为人工智能一旦脱离束缚,以不断加速的状态重新设计自身,人类将无法与之竞争,从而被取代。

霍金多次敬告世人,关注人工智能的深远影响:“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。”

62fde39206f445ac36eb3586b2ef32ed41076769

霍金的孩子露西、罗伯特和蒂姆在一份声明中说:“我们深表遗憾,我们深爱的父亲今天去世了。

对于其他科学家和朋友来说,霍金的直觉和幽默感,以及他残破的身体和合成声音一样多,象征着人类心灵的无限可能。

不仅如此,他也积极参与到各项活动中。2017年1月初,在名为Benificial AI 2017的会议上,近2000名产学研领袖和中坚力量共同联名发布“AI 23 条原则”,从研究问题、伦理价值观和长期问题三个角度宏观地为AI发展提出规定。联名者包括:Demis Hassabis,Ilya Sutskeve,Yann LeCun, Yoshua Bengio 以及马斯克等等。霍金也在其中。面对AI 可能会被误用和威胁人类的担忧,这 23 条原则被期待能确保AI走在“正轨”,以获得更加健康的发展。

霍金在2017年初签署的这23条原则,分为研究问题、伦理价值观和长期问题三个部分,以确保人人都能从人工智能中受益,同时保证AI研究和发展的正确方向。

人工智能已经为世界各地人的日常生活提供了有益的工具。人工智能技术应该在以下原则的指导下继续发展,将为未来几十年到几个世纪的人给予巨大的帮助和力量。

研究问题

1)研究目标:人工智能研究的目标应该是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。

2)研究资金:投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:

8481c8f592b7f349aa84a1de5c171db681516edf我们如何使未来的AI系统具有高度鲁棒性,这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情?
8481c8f592b7f349aa84a1de5c171db681516edf 我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?
8481c8f592b7f349aa84a1de5c171db681516edf 我们如何更新法律制度实现更大的公平和更高的效率,跟上AI的发展步伐,管控与AI相关的风险?

AI应该具有怎样的价值观,应该具有何等法律和伦理地位?

3)科学政策互联:AI研究人员和政策制定者之间应该进行有建设意义、健康的交流。

4)研究文化:应该在AI研究者和开发者中培养合作、信任和透明的文化。

5)避免竞赛(Race Avoidance):开发AI系统的团队应积极合作,避免在安全标准方面进行削减。

伦理和价值观

6)安全:AI系统应该在整个使用周期内安全可靠,并在可行性和可用性方面有可验证的衡量标准。

7)故障透明度(Failure Transparency):如果AI系统造成伤害,应该可以确定原因。

8)司法透明度:任何涉及司法决策的自主系统都应对其判断提供合理的解释,并由主管人权机构审核。

9)责任:先进人工智能系统的设计师和建设者是使用、滥用这些系统以及这些系统行动造成的道德影响的利益相关者,他们有责任和机会塑造这些影响。

10)价值观一致性:在设计高度自治的人工智能系统时,应该确保它们的目标和行为在整个操作过程中与人类的价值观相一致。

11)人类价值观:人工智能系统的设计和运行应与人类尊严、权利、自由和文化多样性的理念相一致。

12)个人隐私:由于AI系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据。

13)自由和隐私:AI 应用个人数据,其结果不能不合理地限制人类真实或感知到的自由。

14)共享利益:人工智能技术应当惠及和增强尽可能多的人。

15)共享繁荣:人工智能创造的经济繁荣应该广泛共享,为全人类造福。

16)人类控制:应该由人类选择如何以及是否委托人工智能系统去完成人类选择的目标。

17)非颠覆(Non-subversion):要控制先进的人工智能系统所带来的力量,应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程。

18)AI 军备竞赛:应该避免在致命的自动武器开发方面形成军备竞赛。

长期问题

19)能力注意(Capability Caution):在没有共识的情况下,应该避免对未来AI能力上限做出较为肯定的假设。

20)重要性:先进AI可能代表了地球上生命发展历史的一大深刻变化,应该通过相应的关怀和资源对其进行规划和管理。

21)风险:人工智能系统带来的风险,特别是灾难性或有关人类存亡的风险,必须遵守与其预期影响相称的规划和缓解措施。

22)不断自我完善(Recursive Self-Improvement):对于那些不断自我完善或通过自我复制以能够快速提高质量或数量的AI系统,必须采取严格的安全和控制措施。

23)共同利益:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。

今天,也是爱因斯坦的诞辰。

67d602c7aabd5d72bacb4b46196791f515fef180

历史如此巧合。这两位伟大的科学家已经离我们而去,但人类对宇宙、人工智能的探索永无止境。让我们以这样的方式来纪念他们。


原文发布时间为:2018-03-14

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号

原文链接:【巨星陨落】霍金今日去世,但人类对宇宙和AI的探索永无止境

相关文章
|
人工智能 算法 数据可视化
角速度、线速度之外,描述宇宙还有另一种方式?AI发现新变量登Nature子刊
角速度、线速度之外,描述宇宙还有另一种方式?AI发现新变量登Nature子刊
129 0
|
机器学习/深度学习 人工智能 算法
00 后清华学霸用 AI 打败大气层「魔法攻击」,还原宇宙真面貌
00 后清华学霸用 AI 打败大气层「魔法攻击」,还原宇宙真面貌
143 0
|
机器学习/深度学习 人工智能 自动驾驶
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
160 0
AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络
|
机器学习/深度学习 人工智能 算法
可以学习人类语言模式的人工智能
一种新的人工智能自动学习模型可以应用于不同语言的高级语言模式,使其能够取得更好的结果。
153 0
可以学习人类语言模式的人工智能
|
人工智能 算法 芯片
人工智能无法取代人类工作的六个原因
虽然人工智能被设计成一种更有效、更快速的工作方式来取代手工劳动,但它无法取代工作空间中对人工输入的需求。
456 0
人工智能无法取代人类工作的六个原因
|
机器学习/深度学习 人工智能 算法
AI到来,可能会给人类社会带来的影响
人类该如何应对AI时代,目前对AI大多是预测,其可能会带来的影响。
AI到来,可能会给人类社会带来的影响
|
机器学习/深度学习 数据采集 人工智能
借助AI 人类能听懂动物的“喜怒哀乐”?
人工智能是否可以实现人与动物的沟通?算法具体是如何分辨动物情绪的?目前,人类要通过AI理解动物语言,还需克服哪些困难?
借助AI 人类能听懂动物的“喜怒哀乐”?
|
机器学习/深度学习 存储 传感器
图灵奖获得者 Yann LeCun :学习“世界模型”的能力是构建人类级 AI 的关键所在
本文最初发布于 Meta AI 博客,由 InfoQ 中文站翻译并分享。
269 0
图灵奖获得者 Yann LeCun :学习“世界模型”的能力是构建人类级 AI 的关键所在
|
机器学习/深度学习 传感器 人工智能
AI老司机,驾龄等于人类2万年:计划两年登上百万台车
AI老司机,驾龄等于人类2万年:计划两年登上百万台车
278 0
AI老司机,驾龄等于人类2万年:计划两年登上百万台车
|
机器学习/深度学习 人工智能 自然语言处理
人工智能会代替人类吗?
文章题目的命题有点大,个人理解实际上他包含两层含义:第一层,人类会灭亡吗?第二层,人类灭亡的主要原因会是人工智能所代表的技术吗?
人工智能会代替人类吗?
下一篇
DataWorks