Deepmind成立新AI部门,意在处理AI社会和伦理问题

简介:

据外媒 The Verge 报道,近日,Google旗下AI研发公司 DeepMind 宣布成立一个AI新部门,主要负责研究AI带来的伦理问题和社会问题,如自动化给未来经济带来的影响等等。

Deepmind成立新AI部门,意在处理AI社会和伦理问题

图:DeepMind办公室

据了解,新部门的主要目标是帮助技术人员将伦理应用于实践,帮助社会预测AI的影响,并对其影响给予引导,确保AI造福人类。2016年,DeepMind 开发的AI系统在围棋棋盘上打败世界顶尖选手,因而名声大震。

DeepMind 为新部门命名为 DMES(DeepMind Ethics & Society:伦理和社会)。新部门将于2018年开始就这些课题目标进行研究。目前,该部门已有8名全职员工。不过,按照 DeepMind 的计划,该部门的员工规模将在一年时间内增至25名左右。

为了壮大团队,DeepMind 还从外部学术机构和慈善机构聘请一些顾问,为新部门提供咨询服务,包括哥伦比亚大学发展学教授 Jeffrey Sachs、牛津大学AI教授 Nick Bostrom、气候变化活动家 Christiana Figueres。

DMES 联合主管 Verity Harding、Sean Legassick 在公告博文中表示,这些专家不只精通专业技术,还可以带来多样化的思考。同时,二位还表示,DMES将帮助 DeepMind 探索和了解AI带给现实世界的影响。“如果AI技术要服务于这个社会,那么,其必须经受住社会的优先事项和关注重点的重塑的过程。”

雷锋网还了解到,新部门届时还将与有着类似研究目标的学术团体合作,如纽约大学的 AI Now Institute和剑桥大学未来智能研究中心(Leverhulme Centre for the Future of Intelligence)等等。

事实上,2014年 DeepMind 被 Google 收购时曾承诺要建立一个“AI伦理委员会”。与新部门不一样,该委员会主要用以监管公司的所有AI研究活动。不过,自收购以来该伦理委员会并没有多大作为。特别是 2016年,DeepMind 在与英国国民健康服务局(NHS)合作时,受到了公众的大肆批评,这让其进一步认识到AI伦理问题的重要性。

2015年,DeepMind 和伦敦三家医院达成合作,处理了其中160万名患者的诊疗数据。2017年,该行为被英国的数据监督机构判定为非法,因为该公司没有通知到个人他们的数据已被使用。DeepMind 后来表示,他们低估了“NHS的复杂性和患者数据的规则”,并聘请了新的独立伦理审查员以监督未来的任何交易。

虽然DMES的成立主要是基于 DeepMind 对AI带来的伦理问题的考虑和重视,但至目前为止,该公司的内部伦理审查员依然笼罩着神秘面纱。同时,据了解,新部门将与 DeepMind 的产品部门并行运营。未来,新部门聘请了哪些审查员,多久进行一次会议,主要讨论哪些要点,又有哪些形式...关于这些问题,只能在未来慢慢寻找答案。



本文作者:李秀琴
本文转自雷锋网禁止二次转载, 原文链接
目录
相关文章
|
1月前
|
人工智能 自然语言处理 文字识别
DeepMind首发游戏AI智能体SIMA:开启虚拟世界的智能探索之旅
【4月更文挑战第3天】DeepMind推出了SIMA,一种能在多个3D环境中执行语言指令的智能体,标志着AI在理解和互动虚拟世界上的进步。SIMA通过多样化的训练数据学习导航、操作、决策等技能,并结合预训练模型处理高维度输入输出。尽管在复杂任务上仍有提升空间,SIMA展现了正向迁移能力和潜力,为AI研究和未来机器人技术铺平道路。然而,仍需解决鲁棒性、可控性、评估方法及道德安全问题。
31 4
DeepMind首发游戏AI智能体SIMA:开启虚拟世界的智能探索之旅
|
9天前
|
人工智能 安全 数据安全/隐私保护
【AI 生成式】生成式人工智能存在哪些伦理问题?
【5月更文挑战第4天】【AI 生成式】生成式人工智能存在哪些伦理问题?
【AI 生成式】生成式人工智能存在哪些伦理问题?
|
9天前
|
机器学习/深度学习 人工智能 算法
【AI 场景】在自主武器中使用人工智能的伦理影响
【5月更文挑战第4天】【AI 场景】在自主武器中使用人工智能的伦理影响
【AI 场景】在自主武器中使用人工智能的伦理影响
|
16天前
|
人工智能 数据安全/隐私保护
Sora超逼真视频引恐慌!Nature刊文警示AI视频模型,或在2024年颠覆科学和社会
【4月更文挑战第27天】OpenAI公司的新型AI工具Sora能根据文字提示生成超逼真视频,引发关注。尽管已有类似产品,如Runway的Gen-2和谷歌的Lumiere,Sora以其高质量生成效果领先。该技术的进步可能导致2024年全球政治格局的颠覆,同时带来虚假信息的挑战。OpenAI已组建“红队”评估风险,但虚假视频识别仍是难题。尽管有水印解决方案,其有效性尚不确定。Sora在教育、医疗和科研等领域有潜力,但也对创意产业构成威胁。
27 2
|
2月前
|
存储 人工智能 算法
AI伦理与法律考量
**AI伦理与法律聚焦:** 数据隐私、责任归属、算法公平、医疗伦理、人机协作、风险管理与伦理教育是核心议题。AI发展伴随法律责任分配挑战,隐私保护需求,算法透明度的呼吁,医疗应用的道德边界,工作场所的伦理考量,全面风险管理和伦理设计教育的紧迫性。法律框架与伦理原则共同保障AI服务于社会福祉。
20 7
|
2月前
|
人工智能
AI“复活”亲人:新技术正在重塑人类伦理观念
【2月更文挑战第17天】AI“复活”亲人:新技术正在重塑人类伦理观念
80 2
AI“复活”亲人:新技术正在重塑人类伦理观念
|
2月前
|
机器学习/深度学习 人工智能 安全
DeepMind前成员推出Haiper:AI视频生成赛道再添新势力
【2月更文挑战第16天】DeepMind前成员推出Haiper:AI视频生成赛道再添新势力
114 2
DeepMind前成员推出Haiper:AI视频生成赛道再添新势力
|
4月前
|
人工智能 自然语言处理 安全
AI失控风险、内容安全合规、数据伦理与隐私应得到更多关注
【1月更文挑战第10天】AI失控风险、内容安全合规、数据伦理与隐私应得到更多关注
129 1
AI失控风险、内容安全合规、数据伦理与隐私应得到更多关注
|
9月前
|
机器学习/深度学习 存储 人工智能
语言模型做先验,统一强化学习智能体,DeepMind选择走这条通用AI之路
语言模型做先验,统一强化学习智能体,DeepMind选择走这条通用AI之路
111 0
|
10月前
|
机器学习/深度学习 人工智能 自然语言处理
生成式AI下的企业:是不是该成立新部门封新官了?
讲什么信息化、数字化、智能化的花哨概念都好,最终的根本只有一个:软件化一切。今年是Marc Andreessen在《华尔街日报》发表「Why Software Is Eating The World」的第12个年头,还是实实在在看看生成式AI到来后对软件化一切所带来的影响吧。新技能、新岗位、新招牌、新头衔的背后,什么是核心?
106 0