马斯克谈“AI 威胁”又成新闻头条,这次怼他的是扎克伯格
Facebook CEO 马克·扎克伯格在线上与其他大人物公开互动并不常见。当他这样做的时候,一般都很友善,并且经过编排,比如说当年他请微软创始人比尔·盖茨帮忙做哈佛大学演讲。
但是,他对特斯拉和 SpaceX 的 CEO 伊隆·马斯克就没有那么亲切了。在本周一的一场 Facebook 现场视频问答中,扎克伯格被人问到他对马斯克呼吁世人积极监管人工智能的看法——马斯克在这方面一直很高调,表示要在机器人变得比人更聪明、变危险前开始积极监管,要不然 AI 就会对人类存亡构成威胁。
扎克伯格在视频中说:“我认为那些不看好人工智能的人,哪些鼓吹末世论的人——我真的不明白。……这真的很消极,我认为这在某种程度上是非常不负责任的。”扎克伯格表示,他对技术感到乐观,人们不应该呼吁放缓人工智能发展进展。
随后,马斯克在 Twitter 上进行了回应——跟扎克伯格谈过这件事后,马斯克认为扎克伯格在 AI 威胁人类方面的理解有限。
马斯克是有名的人工智能威胁论支持者。但同时,他在 AI 方面的投入也不少。马斯克与人联合创办了非盈利研究机构 OpenAI,特斯拉自动驾驶使用大量的人工智能技术,而他最新成立的公司 Neuralink 更是在脑机接口方面有大胆尝试。
马斯克:一个在 AI 产学研方面均有相当涉猎的人
特斯拉:走向自动驾驶
2004年,埃隆·马斯克向特斯拉汽车公司投资630万美元,出任该公司董事长。为了使每个人都尽早变得安全,Tesla正在向其现有的高端车型中逐步加入自动化系统。但是有一个大的争论是关于到底是完全自动化还是逐步自动化在实际上对于公共安全来说是更好的。Elon Musk给自己设置的研制能够从洛杉矶自动行驶到纽约的无人驾驶汽车的最终期限是2017年年底之前。
Tesla的首席执行官Elon Musk说,这在“道德上应该受到谴责”,直到技术先进到足以实现完全自动化。Tesla已经在其网站上声称其所有车辆“具有完全自动驾驶能力所需的硬件,其安全级别远远高于人类驾驶员的安全级别。
2016年10月19日,Tesla发布声明称,包括还未上市的Model 3在内,目前工厂在产的特斯拉汽车都将全部配备能够实现完全自动驾驶(full self-driving capability)的硬件。其中,包括8个车身周围的摄像头,12个最新的超声波传感器,1个增强版前向毫米波雷达以及处理能力将比上一代高40倍的车载计算设备NVIDIA’s Drive PX 2,其作用及安装位置如表1与图1所示。特斯拉想借此实现以下公司愿景:
为所有人提供比人类驾驶更高的行车安全;
为车主提供更低的交通成本;
为无车之人提供低价、按需的出行服务。
特斯拉Model3将于本月底量产。
OpenAI:确保 AI 朝向对人类有益的方向发展
2015年12月16日,特斯拉CEO埃隆·马斯克(Elon Musk)和创业孵化器Y Combinator总裁山姆·奥特曼(Sam Altman)创建了人工智能公司 OpenAI,并表示将开源其研究成果分享给研究人工智能的每一个人。国外知名科技媒体《连线》杂志发表评论文章,称开源的OpenAI的成立将人工智能研究推向高潮,同时也转变了目前由谷歌、Facebook等巨头引领的人工智能领域竞争格局。未来,OpenAI有望成为这一领域的监管者,将其引向对人类更为安全的发展轨迹上来。
谷歌和Facebook正在将人工智能推向新的时代,OpenAI至少还可以监督它们,当然还会监督其他人。深度学习初创企业Skymind.io的联合创始人克里斯·尼科尔森(Chris Nicholson)说:“马斯克和OpenAI已经看到了人工智能的势不可挡,他们唯一希望的是改变其发展轨迹。”
本质上,OpenA I是一个研究实验室,旨在削减两类组织的力量:包括因为拥有营利的超级智能系统(super-intelligence systems)而可能获得过多力量的大型组织,以及可能使用AI来获取力量甚至用来压迫本国公民的政府机构。
OpenAI 团队成员包括 Stripe 前 CTO Greg Brockman(他是担任 OpenAI的CTO)以及世界一流的研究者 Ilya Sutskever。Ilya Sutskever曾经为Google工作过,是在多伦多接受神经网络先驱Geoff Hinton指导的年轻科学家团队的一员。他将担任OpenAI的研究主管。其他的人马还有一群顶尖的天赋很高的年轻人,他们的简历中囊括了主要的学术团体、Facebook AI以及谷歌在2014年收购的AI公司DeepMind。OpenAI还有一个星光熠熠的顾问委员会,顶尖的计算机科学家Alan Kay也名列其中。
在成立 OpenAI 后不久,马斯克接受采访时表示,他对AI有所顾虑已经有一段时间了。“我和Sam,和Reid [Hoffman],和Peter Thiel,还有其他人,谈了许多次。我们在思考,“有没有某种方法可以确保——或者提升——AI以有益的方式发展的概率?”作为几次谈话的结果,我们得出了创立一个501c3组织的结论(译者注:501(c)是美国国内税收法(Internal Revenue Code, IRC)中的一项条款(美国国内税收法, § 501(c)),列出了26种享受联邦所得税 (federal Income tax)减免的非营利组织,501(c)(3)为宗教、教育、慈善、科学、文学、公共安全测试 (Testing for public safety)、促进业余体育竞争和防止虐待儿童或动物等七个类型的组织,来自维基百科):一家非营利性组织,不具有让利润最大化的义务,可能会是一件不错的事情。同时,我们也会对安全性非常重视。”
马斯克还说,他们希望AI能被广泛传播。“我们认为可能数量多是一件好事。而且从你可以将它作为人类意愿的延伸这个方面来看,这也是一件好事。”
NeuraLink
你可能以为特斯拉和 SpaceX 够马斯克忙了,但在今年 3 月份,他宣布成立一家新公司——Neuralink,致力于构建能够植入大脑的高带宽 BCI 系统。马斯克说,理想情况下,相关的技术不需要进行脑部手术,他还提到将相关部分注射到血液里的可能。虽然马斯克没有透露更多的技术细节,但神经科学家认为,马斯克的新产品可能基于尖端研究,涉及微小的“神经尘埃”(neural dust)电极或植入大脑中的网状电极。
马斯克的长期目标是发明一种 BCI,能够在日常使用过程中增强认知能力。但是,为了让产品到达普通消费者市场,Neuralink 将首先开发可以获得监管部门批准的医疗产品。马斯克说:“我们的目标是在大约 4 年内,将帮助识别严重脑损伤(中风、癌症病变、先天性疾病)的某些东西推向市场。普通人使用大概有 8 到 10 年的距离。”
了解更多,阅读新智元报道
“第一次听说 Neuralink 之后仅仅六周,我就确定其工程之大胆、使命之壮丽,简直让特斯拉和 SpaceX 都黯然失色。那两家公司在试图定义未来人类会做什么,Neuralink 则意在定义未来人类是什么。”
这是著名科技作家 Tim Urban 在WaitButWhy 上发表的近4万字长博客中的一段话。这篇长博客可让关注 Elon Musk 和他新公司 Neuralink 的人过足了瘾。文章从水母、原始人和神经元讲起,直讲到 Elon Musk 正在做的“脑机接口”和 Neuralink 的伟大抱负。全文贯穿着搞笑而又非常说明问题的图片,文风也是 Urban 一贯的深入浅出风趣幽默。倒是 Elon Musk 在文章最后才不紧不慢地出场,表达了 Neuralink 希望应用其技术帮助老年人维持他们的认知能力。不过,Elon Musk 对 Neuralink 的愿景如此举重若轻的描述,更让人期待这篇长文都写了什么。要知道,Tim Urban 这位最受“钢铁侠”欣赏的科技作者,可是把这篇文章的写作过程说成是“我感觉就好比坐着时间机器去了一趟未来,现在我要告诉你一些根本无从想象的怪事。”【继续阅读】
马斯克的担忧值得关注吗?5 位 AI 专家分别给出不同看法
可以说,马斯克在 AI 产学研方面都有投入,而且还都不小。尽管如此,他还是坚信 AI 威胁论。
就在本月召开的全美国州长协会(National Governors Association)会议上,马斯克受邀出席,并且抓住这一机会强调人工智能是“人类文明面临的最大威胁”,呼吁政府快速坚决采取措施,监督这项技术的发展。
根据 MIT TR 的报道,马斯克在会上表示,
“直到人们亲眼看见机器人走上街头杀人时,他们是不会知道如何反应的,因为这件事情看上去太虚无缥缈了。我很少这么认为,但 AI 无疑属于这样罕见的一个情况,那就是我们需要积极主动地对其进行监管。我认为,当我们在 AI 管制中处于被动地位时,事情就已经晚了。”
对此,Dsicovery Magazine 采访了 5 位 AI 技术专家,请他们谈谈对马斯克这一观点的看法。
华盛顿大学计算机科学教授、艾伦人工智能研究所 CEO Oren Etzioni:更应该关注紧迫问题,比如 AI 造成失业和 AI 武器滥用
华盛顿大学计算机科学教授、艾伦人工智能研究所 CEO Oren Etzioni 认为,马斯克对 AI 威胁人类存亡的密切关注,实际上将公众的视线从 AI 对人类更为紧迫的威胁——失业、军事武器滥用——上面拉开。Etzioni 认为,公众需要关于 AI 全面的信息,包括正面和负面的。让公众了解 AI 要区分科幻和科学。在科幻小说中,人工智能常被视为“反派”,试图统治人类世界。但事实上,人工智能是一种工具、一种技术,有望通过改善交通方式、医疗服务等方式来拯救生命。“与其建立新的监管机构,我们需要更好地教育人们,人工智能可以做什么、不可以做什么。我们需要研究如何构建“AI 监护人”等系统来监控和分析其他 AI 系统,确保人工智能遵守人类的法律和价值观。世界需要人工智能带来好处,但人工智能并不需要监管(The world needs AI for its benefits, AI needs regulation like the Pacific ocean needs global warming.)。
新南威尔士大学人工智能研究员、《It’s Alive!: Artificial Intelligence from the Logic Piano to Killer Robots》的作者 Toby Walsh:AI 对人类文明还没有构成迫切威胁,但政府开始监管是有必要的
新南威尔士大学人工智能研究员、《It’s Alive!: Artificial Intelligence from the Logic Piano to Killer Robots》的作者 Toby Walsh 认为马斯克是危言耸听。他最近对 300 位资深 AI 研究人员进行了调查,其中大多数人认为 AI 至少 50 年后才能像人类一样聪明,所以监管 AI 并不是一个亟待解决的问题。而且,如今有研究群体正在致力于确保智能机器不会对人类的生存构成威胁。Walsh 认为,这些研究人员届时会发现我们需要采取的保障措施。
但是,Walsh 认为马斯克在一件事上是对的:政府需要从现在开始着手监管 AI 。但是,要监管的是“傻瓜 AI”,例如有偏见的算法、军备竞赛中的杀人机器人,这些不够聪明的 AI 掌握着人类的生杀大权。此外,一些科技公司掌握了公民的个人信息和医疗数据,对隐私造成威胁。虚假消息在互联网上泛滥,扭曲了人们的观点。这些问题让科技公司自行解决不太现实,因此需要政府出面干预。
科技巨头之间正在展开人工智能军备竞赛。谷歌和 Facebook 这样的公司形成垄断的势头已现,如果 20 年后还是这样巨头独大的格局,Walsh 对人类社会的未来深表担忧。
斯坦福 AI 实验室主任、谷歌云 AI/ML 首席科学家李飞飞:要各行各业的人都参与研发对社会有益的 AI
斯坦福 AI 实验室主任、谷歌云 AI/ML 首席科学家李飞飞表示,机器体现了人类的价值观。如果人类真的担心技术的未来影响,AI 也好,能量也罢,其他任何事情,都让各行各业的人和各种观点意见都在开发和应用这项技术中得到体现。这一点对斯坦福大学、谷歌和特斯拉的研究人员都一样,每个技术专家都需要参与到改善社会、开发 benevolent AI 技术的进程中来。作为 AI 教育家和技术专家,李飞飞认为,最重要的是在发展和传播 AI 的过程中看到更多的包容和多样性。
IEEE 全球 AI 伦理倡议主席、AI 专家 Raja Chatila:马斯克的关注是合理的,但要立即采取措施可能得罪股东
IEEE 全球 AI 伦理倡议主席 Raja Chatila 认为,人工智能已经无处不在,它是互联网的一种衍生。人工智能已经被嵌入到当下和未来我们开发的所有算法和系统当中。这是一个绝佳的机会,可以让我们把人工智能在道德和责任设计提升到优先的等级中来。然而,这与AI 和社会面临的紧迫的危机的关系更大,忽视掉环境和社会的影响,它们对经济的增长有着更显著的影响。
就马斯克关于人工智能的生存威胁的警告是否值得人们的立即关注?Chatila 认为是需要的,我们不应该只把经济增长当做指标,也需要关注社会效应。如果不去关注的话,我们实际上会有巨大的风险,可能会面临大量负面效应和意外的结果,因为我们将经济指数增长和股价价值凌驾于社会繁荣指标之上,把它们作为这些令人惊叹的技术的成功标志。(In terms of whether Musk’s warnings of existential threats regarding Artificial Super-intelligence merit immediate attention, we actually risk large-scale negative and unintended consequences because we’re placing exponential growth and shareholder value above societal flourishing metrics as indicators of success for these amazing technologies.)
《机器人的兴起:技术和失业未来的威胁》作者、AI专家 Martin Ford:马斯克担心是合理的,不该被忽视
《机器人的兴起:技术和失业未来的威胁》作者表示,对于人工智能对人类构成生存威胁这件事,Elon Musk的担忧是合理的,也不应该被忽视 。但这种担忧要在至少50年之后才可能会出现。要求立即规范或限制人工智能发展的原因有很多,其中最重要的一个原因是美国目前正在与其他国家特别是中国展开积极竞争,我们在这场关键的比赛中不能落后。
另外,对真正先进的人工智能“接管”的担忧,让我们忽视了与专业人工智能发展相关的更紧迫的问题。这些因素包括,随着数以百万计的工作岗位被淘汰,以及潜在的隐私威胁,以及在网络犯罪和网络战争中部署人工智能,以及真正自主的军事和安全机器人的出现,可能出现大规模经济和社会动荡的可能性。
这些更接近短期的发展,都依赖于马斯克担心的先进超级智能的发展。它们是已经存在的技术对社会影响的简单推断。我们当前的重点应该是解决这些投机性较低的风险,这些风险极有可能在未来 20 年内产生重大影响。
担忧人工智能?这还不是马斯克想的最远的
马斯克认为 AI 威胁人类文明的观点很大程度上可能受 Nick Bostrom 的影响。Bostrom 是牛津大学人类未来研究院院长,畅销书《超级智能》的作者。2014 年 8 月,马斯克读完《超级智能》,在 Twitter 上公开表示要慎用人工智能。
当时还身为博士生的 Andrew Karpathy 回应说,AI 目前还是些算法和工程,不用太担心。
不知道现在已经成为特斯拉 AI 主管的 Karpathy 会怎么说。Karpathy 在从斯坦福毕业后,加入了 OpenAI 做研究。上面已经说过,OpenAI 是马斯克与人联合成立的非盈利研究机构,包括 Bengio 在内的多名 AI 领袖也支持创建 OpenAI。
回到 Bostrom 身上来,不仅在 AI 威胁,Bostrom 在很大程度上还影响了马斯克现实世界的看法。QZ 曾经发表文章,“We talked to the Oxford philosopher who gave Elon Musk the theory that we are all computer simulations”。也就是说,在 Bostrom 影响下,马斯克认为我们都是计算机模拟。
这还不算马斯克最疯狂的想法——他最近在一次采访中说,他 25 年前希望做的 5 件事之一是,让人类可以在多个行星上生活。现在,他想让人和AI 的融合,解决大脑皮层的接口宽带问题。“我认为可以通过改进大脑皮层和数字设备之间的神经元连接,来有效地把AI 与人融合在一起;正如我说过的,这已经存在了,现在只是接口带宽的问题。如果有效的话,在这之后,你将成为“AI-人类”混合体。此外,如果这种形式可以得到普及的话,我们就不用担心一些邪恶的AI 独裁者了,因为我们就是AI 的集合。这是我能想到的最好的方法。”
文章转自新智元公众号,原文链接