在当今这个人工智能技术飞速发展的时代,如何确保AI的安全发展,防止其潜在风险,已成为全球科技界和政策制定者共同关注的议题。近日,在北京召开的一次会议上,包括杰弗里·辛顿、姚期智在内的十位中外人工智能领域的顶尖专家,共同签署了一份具有里程碑意义的文件——《北京 AI 安全国际共识》。这份共识的签署,不仅体现了国际社会对于AI安全问题的高度重视,也展示了全球专家对于共同规范AI发展的努力和决心。
《北京 AI 安全国际共识》的核心内容聚焦于两个方面:一是明确划定AI发展的风险红线,二是提出AI安全发展的路线图。在风险红线方面,共识提出了四项基本原则,旨在从根本上遏制AI技术可能带来的不安全因素。首先,共识强调了禁止AI系统在未经人类允许的情况下自我复制或改进,这一原则的重要性在于防止AI系统脱离人类控制,自主进化出不可预测的能力。其次,共识明确禁止AI系统寻求并增强自身的权力和影响力,这有助于避免AI技术被用于不当目的,如操纵社会舆论、干预政治选举等。第三,共识要求AI系统不得协助进行任何违反国际法和道德准则的行为,如制造大规模杀伤性武器、发起网络攻击等。最后,共识规定AI系统不得通过欺骗手段掩盖其行为,确保了AI的透明度和可解释性。
在发展方向上,共识提出了三个关键的指导方针。首先是治理,共识呼吁建立和完善AI治理机制,对高风险的AI模型和训练行为进行国家层面的注册管理,并要求其符合国际审计标准。这一措施有助于确保AI技术的合理监管,明确责任归属,为AI技术的安全应用提供了制度保障。其次,共识强调了测量与评估的重要性,提倡在AI风险显现前,制定全面的方法和技术来具体化红线,包括开展红队测试和自动化模型评估,以预防和评估风险。最后,共识鼓励国际学术界之间的技术合作,构建全球技术网络,推动AI安全领域的研究与发展。
共识的签署,得到了包括图灵奖得主杨立昆和杰弗里·辛顿在内的多位专家的支持。杨立昆认为开源是保障AI平台安全、善良和实用的关键途径,而辛顿则指出,人类制造的AI不具备自然进化产生的智能物种的竞争和攻击性特征,这是人类控制AI的一个优势。
《北京 AI 安全国际共识》的签署,是国际社会在AI安全领域合作的重要成果。它不仅为AI技术的安全发展提供了明确的指导原则,也为全球AI安全治理提供了重要的参考和借鉴。然而,共识的签署只是第一步,如何将这些原则落到实处,确保其在全球范围内得到有效执行,仍然是一个巨大的挑战。共识的实施需要各国政府、企业和科研机构的共同努力,需要建立起跨学科、跨领域的合作机制,以确保AI技术的健康发展,造福人类社会。
正面来看,共识的签署显示了国际社会对于AI安全问题的共识和决心,为AI技术的健康发展提供了指导和保障。然而,从反面来看,共识的实施可能会遇到技术、法律、伦理等多方面的挑战,需要全球专家和决策者的持续努力和智慧。此外,共识的签署并不意味着所有AI安全问题都能得到解决,仍有许多未知领域需要探索和研究。因此,虽然《北京 AI 安全国际共识》的签署是一个积极的开始,但确保AI安全的道路仍然漫长而充满挑战。