2018年哪项AI研究最紧迫?DeepMind联合创始人说是AI伦理

简介:
本文来自AI新媒体量子位(QbitAI)

2018年,正火热的人工智能会朝什么方向发展?

DeepMind联合创始人苏莱曼(Mustafa Suleyman)今天在《连线》上发表文章,给出了他心目中的答案。

苏莱曼在DeepMind主管“应用AI”。他19岁从哈佛辍学,在联合创立DeepMind之前先后建立过穆斯林青年求助热线、冲突解决咨询公司Reos Partners,做过伦敦市长的政策专员,还为联合国、荷兰政府、WWF工作过。

28bf6246bfdbbc76fb8ce3e04a790b8e56cb3305

以下内容,量子位翻译自他的《连线》专栏文章:

从气候变化到粮食供给,再到为不断增长的全球人口提供医疗保健服务,人类正面临各种各样复杂的挑战。如果不解决这些挑战,那么人类社会可能会面临极其严重的破坏。

幸运的是,人工智能的发展可以扮演创新角色,帮助我们解决这些问题。

与此同时,人工智能技术与社会经济的整合也带来了自身的挑战。这类技术可以解决经济不平等问题,但如果技术福利没有广泛传播,那么可能会导致问题变得更严重。这类技术可以揭露破坏性的人类偏见,帮助社会解决这些偏见,也有可能加强偏见,导致偏见被固化。

如果想要确保方向正确,就必须认真研究人工智能的社会效应,并建立伙伴关系,确保技术为公众利益服务。

这也是为什么我预计,关于人工智能伦理、安全和社会影响的研究将成为未来一年中最紧迫的课题之一。

在这些方面,我们已经完成了有价值的工作。例如,社会正在形成共识,即新技术的开发者有责任协助解决不平等、不公平和偏见带来的问题。2018年,我们将看到更多团队开始着手这方面研究。

这并不容易:技术圈往往会陷入简单化的思维方式,将复杂的价值评判替换为简单的指标。这些指标可以追踪,并且随时间推移可以不断优化。

当然,计算“点赞”次数要比理解为什么“点赞”,以及这对自信和自尊有什么样的影响要简单得多。然而,这些社会效应很重要。这要么有助于创造出解决问题的环境,要么会造成怨恨和恐惧的氛围:对于企业牺牲社会利益换取商业利益,公民会感到愤怒。

这个领域的发展还需要建立新的决策机制,直接引入公众的声音。对于一个倾向于单方面解决问题,或是将问题丢给其他人去解决的行业来说,这将是根本性的改变。

尽管如此,作为社会活动者出身的人,我可以看到,许多科技领域工作者正尝试真正地改善世界。这些人相信,他们与那些献身于理解事物含义的人群有天然的亲密关系。

受此鼓舞的人们,例如创立了“ Time Well Spent”运动的Tristan Harris,正在建立新联盟来对抗“注意力经济”。分别来自微软和谷歌的Kate Crawford和Meredith Whittaker共同创立了“AI Now”组织,研究科技对社会的影响。此外,“Partnership On AI”将多家领先的人工智能研究实验室(包括我的公司DeepMind)首次连接至知名的非营利组织,例如美国公民自由联盟。这个项目的目标是推动技术专家和社会活动家的共同参与。

正确处理这些事情并不仅仅是出于善意。我们需要从事困难、有实际意义、混乱的工作,理解人工智能的道德究竟是什么。如果我们成功让人工智能为人类和地球工作,那么随之而来的影响将具有转型意义。目前,所有一切都还需要研究。

57e258a662d11904c1dc4b138de81f9dd1a997c2

 图片来源:Wired;作者:Janne Iivonen

原文地址:http://www.wired.co.uk/article/mustafa-suleyman-deepmind-ai-morals-ethics

本文作者:维金
原文发布时间:2018-01-06
相关文章
|
3月前
|
人工智能 自动驾驶 算法
智能时代的伦理困境:AI决策的道德边界
在人工智能技术飞速发展的今天,我们面临着前所未有的伦理挑战。本文探讨了AI决策中的道德边界问题,分析了技术发展与人类价值观之间的冲突,并提出了建立AI伦理框架的必要性和可能路径。通过深入剖析具体案例,揭示了AI技术在医疗、司法等领域的应用中所引发的道德争议,强调了在追求技术进步的同时,必须审慎考虑其对社会伦理的影响,确保科技发展服务于人类的福祉而非成为新的困扰源。
|
2月前
|
人工智能 算法 自动驾驶
AI的伦理困境:我们是否准备好面对?
【10月更文挑战第40天】随着人工智能技术的飞速发展,它已经深入到我们生活的方方面面。然而,随之而来的伦理问题也日益凸显。本文将探讨AI技术中的一些伦理困境,包括数据隐私、算法偏见、自动化失业等,并提供一些可能的解决方案。我们将通过代码示例来展示如何在AI应用中实现这些解决方案。
|
3月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
46 1
|
22天前
|
机器学习/深度学习 人工智能 自然语言处理
AI自己长出了类似大脑的脑叶?新研究揭示LLM特征的惊人几何结构
近年来,大型语言模型(LLM)的内部运作机制备受关注。麻省理工学院的研究人员在论文《The Geometry of Concepts: Sparse Autoencoder Feature Structure》中,利用稀疏自编码器(SAE)分析LLM的激活空间,揭示了其丰富的几何结构。研究发现,特征在原子、大脑和星系三个尺度上展现出不同的结构,包括晶体结构、中尺度模块化结构和大尺度点云结构。这些发现不仅有助于理解LLM的工作原理,还可能对模型优化和其他领域产生重要影响。
62 25
|
1月前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
174 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
2月前
|
机器学习/深度学习 人工智能 监控
探索人工智能的伦理困境:我们如何确保AI的道德发展?
在人工智能(AI)技术飞速发展的今天,其伦理问题也日益凸显。本文将探讨AI伦理的重要性,分析当前面临的主要挑战,并提出相应的解决策略。我们将通过具体案例和代码示例,深入理解如何在设计和开发过程中嵌入伦理原则,以确保AI技术的健康发展。
51 11
|
2月前
|
人工智能 开发者
人类自身都对不齐,怎么对齐AI?新研究全面审视偏好在AI对齐中的作用
论文《AI对齐中的超越偏好》挑战了偏好主义AI对齐方法,指出偏好无法全面代表人类价值观,存在冲突和变化,并受社会影响。文章提出基于角色的对齐方案,强调AI应与其社会角色相关的规范标准一致,而非仅关注个人偏好,旨在实现更稳定、适用性更广且更符合社会利益的AI对齐。论文链接:https://arxiv.org/pdf/2408.16984
39 2
|
2月前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
48 12
|
2月前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
3月前
|
人工智能 自动驾驶 数据安全/隐私保护
人工智能的伦理困境:我们如何确保AI的道德发展?
【10月更文挑战第21天】随着人工智能(AI)技术的飞速发展,其在各行各业的应用日益广泛,从而引发了关于AI伦理和道德问题的讨论。本文将探讨AI伦理的核心问题,分析当前面临的挑战,并提出确保AI道德发展的建议措施。