今天AI领域都在谈论一件事。DeepMind表示,很自豪成为Asilomar人工智能原则的签署者,这是一个AI和伦理方面的重大进步。而硅谷钢铁侠伊隆-马斯克指出,顶级的AI研究人员在人工智能发展方面达成一致:开发对人类有益的人工智能。
这个原则在今年的Asilomar大会上达成。细节如下:
研究问题
1)研究目标
AI研究的目标,不是创造不受指导的智能,而是创造有益人类的智能。
2)研究资助
对人工智能的投资,应确保相关研发是有益人类的,包括计算机科学,经济学,法律,伦理和社会研究中的棘手问题,例如:
如何使未来的AI系统足够强大,不会发生故障或被黑客入侵?
如何通过自动化实现社会繁荣,同时维护人类的资源和目的?
如何推动法律制度更公平、更有效率,跟上AI的步伐,以及管理与AI相关的风险?
AI应该与什么样的价值观相一致,它应该具有什么法律和伦理地位?
3)科学政策链接
AI研究人员和决策者之间应该建设性和健康的交流。
4)研究文化
应该在AI的研究人员和开发人员中培养合作,信任和透明的文化。
5)竞争避免
开发AI系统的团队应积极合作,以避免削减安全标准。
伦理和价值观
6)安全
AI系统在其整个使用寿命期内应安全可靠,并在可行的情况下可验证。
7)故障透明度
如果一个AI系统造成损害,应该能够确定原因。
8)司法透明度
任何自主系统参与司法决策都应提供令人满意的解释,并由人类权利机构审核。
9)责任
设计师和建设者,是先进人工智能系统的使用、滥用和行动道德意义上的利益相关者,他们有责任也有机会去塑造这些意义。
10)价值取向
设计高度自治的人工智能系统时,应该使它们的目标和行为,在整个运营过程中与人类价值观保持一致。
11)人类价值观
人工智能系统的设计和操作应符合人类尊严、权利、自由和文化多样性的理想。
12)个人隐私
人们应该有权访问,管理和控制他们产生的数据,因为AI系统有能力分析和利用这些数据。
13)自由和隐私
AI对个人数据的应用不得不合理地限制人们的真实或感知的自由。
14)共享利益
AI技术应该使尽可能多的人受益。
15)共享繁荣
AI创造的经济繁荣应该广泛分享,以惠及全人类。
16)人类控制
人类应该选择如何以及是否将决定权委派给人工智能系统,以完成人类选择的目标。
17)非颠覆
控制高度先进的人工智能系统所赋予的权力,它应尊重和改善而不是颠覆社会健康所依赖的社会和公民进程。
18)AI武器竞赛
应该避免进行致命自主武器的军备竞赛。
长期问题
19)能力注意
因为没有共识,我们应该避免关于未来人工智能能力上限的强烈假设。
20)重要性
高级AI可以代表地球上生命历史的深刻变化,应该通过相应的关怀和资源进行规划和管理。
21)风险
人工智能系统造成的风险,特别是灾难性或存在性风险,必须根据其预期影响进行规划和缓解的努力。
22)递归自我完善
被设计成以递归方式进行自我完善或自我复制,并可能导致快速提高质量或数量的AI系统,须采取严格的安全和控制措施。
23)公益
超级智能只应当为广泛共享的伦理理想,为了全人类的利益而不是一个国家或组织而服务。