新加坡一直以来都在努力平衡科技产业的快速发展与风险治理的挑战。2019年,新加坡成为亚洲地区首个推出人工智能监管模式框架的国家。这一框架旨在引导企业在使用人工智能技术时遵循一系列道德指导原则,涵盖内部监管、人工智能决策的风险管理、运营管理和消费者关系管理。
在这个框架中,有两个关键的指导原则,它们为新加坡AI监管政策的基石。首先,是确保决策有合乎解释的依据和透明。这一原则要求企业在使用人工智能技术进行决策时,必须提供清晰的解释,使得这些决策不仅能够被理解,而且是透明可见的。这有助于建立公众对人工智能决策的信任,并确保决策的合理性。
其次,是以人为本。人工智能解决方案应该以人为中心,考虑人类的需求、价值和权益。这一原则强调了在AI技术应用中,应该保护个体的权益,确保技术的发展不会削弱人类的地位。新加坡政府明确表示,人工智能技术的发展应当符合社会伦理和法律规定,不应损害公众利益。
为了更加具体地推动这些原则的实施,新加坡政府于2022年5月发布了官方人工智能治理评估框架和工具包,被称为AI Verify。这一工具包旨在帮助企业和开发者评估其人工智能系统的治理水平,强调透明度、理解决策过程、确保安全性和公平性等方面。AI Verify提供了8项原则,以指导开发者和企业在人工智能应用中建立有效的治理措施。
这些原则包括:
透明度:确保人工智能系统的决策过程对相关利益相关者是可见的,提高决策的可解释性。
理解决策过程:使人工智能系统的决策过程变得可理解,使其不仅仅是黑匣子,让人们能够理解背后的逻辑。
确保安全性:保障人工智能系统的安全性,防止恶意攻击和滥用,确保系统不会对社会造成危害。
公平性:确保人工智能系统在决策中是公平的,不对某一群体进行歧视,维护社会的公平正义。
负责任的使用:鼓励负责任的人工智能技术使用,不损害公众利益,遵循道德和法律准则。
隐私保护:保护个体隐私,确保人工智能系统在处理个人数据时符合相关隐私法规。
社会影响评估:在引入新的人工智能技术时进行社会影响评估,考虑其对社会的影响。
公众参与:鼓励公众参与人工智能决策的过程,增加决策的公正性和民主性。
这些原则的提出旨在帮助新加坡的企业和开发者建立可靠、负责任、透明和公正的人工智能系统。通过AI Verify框架,政府为行业提供了一个实用的工具,以评估其人工智能系统的治理水平,并采取措施提高公众对人工智能的接受和信任度。
在全球范围内,新加坡的这一人工智能监管政策引起了广泛的关注。它不仅是亚洲地区的开创性举措,也为其他国家提供了一个可供借鉴的范例。随着人工智能技术的不断发展,新加坡在制定和完善AI监管政策方面的经验将为全球社会应对人工智能挑战提供有益的经验。