提高人工智能道德水平的9个步骤

简介: 涉及人工智能应用的法律目前还很少,这使得很多组织面临各方面的压力,而为了让公众放心,人工智能应用必须是合乎道德和公平的。

随着人工智能的应用越来越普遍,越来越多的IT领导者开始关注人工智能的道德含义。事实上,由SnapLogic公司赞助,由Vanson Bourne公司进行的2019年调查报告发现,在接受调查的1000名美国和英国IT决策者中, 94%的受访者认为人们应该更加关注人工智能开发中的企业责任和道德规范。


人们为此感到担忧是有理由的。一些著名的科技公司已经卷入相关丑闻,因为他们创建的人工智能系统没有按预期行事。例如,在2015年,很多用户抱怨谷歌公司的图像识别软件将黑人标记为“大猩猩”,虽然这家科技巨头承诺要解决这个问题,但在三年之后,谷歌公司提供的唯一解决方案就是取消人工智能识别大猩猩的能力。而微软公司的基于人工智能的Twitterbot-tay上在使用了几个小时后,就变成了种族主义者,这让微软公司不得不取消了这个业务。


此外据悉,旧金山日前成为美国第一个禁止市场机构使用面部识别软件的主要城市,其部分原因是该技术存在潜在的偏见。几个规模较小的城市已经通过或正在考虑类似的禁令。


虽然有关人工智能失误的报道屡见不鲜,但许多人担心,在没有公众知识的情况下,更普遍、更阴险的人工智能犯罪可能发生在幕后。客户可能永远不会知道他们是否因为道德上可疑的人工智能算法而被拒绝贷款或面临欺诈嫌疑。


纽约大学的AI Now研究所和美国南部浸礼会派这样的组织都在呼吁开发人工智能的公司让其技术变得更加透明,并同意遵守相应的道德原则。作为回应,包括谷歌公司和微软公司在内的一些企业已经发布了有关人工智能使用的内部指南。


然而,许多人认为这还远远不够。相反,他们希望政府机构参与并颁布法规。在Vanson Bourne公司的研究中,87%的商业IT领导者表示应该对人工智能开发进行监管。


IT领导者具有这种愿望的部分原因是,在缺乏相关法律的情况下,企业没有办法知道他们是否做了足够的工作来确保其开发的人工智能是合乎道德的。监管法律可能使他们有能力向客户保证人工智能的应用,因为可以表示他们遵守了所有相关法律。如果没有这些法律,获得和保持客户信任可能会更加困难。


但即使没有监管法律,企业也可以而且应该采取措施确保他们使用人工智能是道德的。以下提供了企业可以改善其在人工智能方面的道德立场采取的9项措施:


1.遵守法规


组织至少需要确保其人工智能应用程序符合数据隐私法规。大多数人工智能软件(尤其是机器学习)都依赖于大量的数据来进行操作,企业有责任确保他们对这些数据的处理符合相关法律。在美国,组织可能需要遵守健康保险便携性和责任法案(HIPAA)、儿童在线隐私保护法案(COPPA)或其他联邦或州法律。


如果组织在欧洲拥有客户或员工,他们还必须遵守欧盟的通用数据保护法规(GDPR)。除其他事项外,这项全面的立法要求组织尽可能以最短的时间存储数据,并为个人提供查看和删除其个人数据的方法。就人工智能而言,最重要的是,GDPR法规还指出,“个人不应仅仅依据自动处理(例如算法)做出决定,而且具有法律约束力或对其产生重大影响。”


2. 遵守数据科学最佳实践


除了遵守政府部门的规定外,组织还应该提供数据科学最佳实践。Forrester公司在其名为“人工智能的伦理:如何避免有害的偏见和歧视” 报告中建议,“为了防止模型中的算法偏见,组织需要坚持数据挖掘的基本原则,确保组织培训数据代表其计划使用模型的人群。”


还有一些人建议,数据科学家需要反复测试和验证他们的模型,并保持跟踪数据沿袭的方法。虽然很少有企业高管了解机器学习的复杂性,但他们有义务确保他们的数据科学家遵守行业最佳实践。


3.安全设计


几十年来,科幻作家一直在警告人工智能可能具有世界末日的危险。如今人工智能变得越来越普遍,重要的是不要忽视人工智能伤害人类的可能性,因为它不只是在书籍和电影中出现的事物。自动驾驶汽车和基于人工智能的武器系统等相关应用显然会影响人类的安全,设计师应确保这些系统尽可能安全。虽然其他机器学习系统可能不会直接影响人类的人身安全,但它们可能会对他们的隐私和在线安全产生重大影响。


4.使人工智能技术更加透明


企业在人工智能道德方面可以采取的最重要步骤之一是确保他们完全理解使用的任何人工智能系统的运作。人工智能供应商Kyndi公司首席执行官Ryan Welsh在一次采访中指出,“要发挥人工智能的全部潜力,信任至关重要。而信任来自人们的理解,并且能够证明系统结论和结果背后的推理。人工智能不可能是一个黑盒,因为它经常出现。要想让人工智能蓬勃发展,就必须更加透明。”


AI Now研究所表示,“为了实现有意义的问责制,我们需要更好地理解和跟踪人工智能系统的组成部分及其所依赖的完整供应链:这意味着要考虑培训数据、测试数据、模型的来源和使用、产品生命周期中的应用程序接口(API)和其他基础设施组件。”


5.清理数据


机器学习系统的行业与它们所依赖的数据一样好。对于许多组织而言,数据质量仍然是一个主要问题。在最坏的情况下,糟糕的数据可能导致组织做出不准确甚至道德上受到损害的决策。


另一方面,拥有准确、最新的数据会增加人工智能应用程序产生积极经济利益的可能性。Information Builders数据管理卓越中心的国际主管James Cotton在一次采访中表示,“当分析应用于管理良好的数据时,其回报要大得多。可以清楚地了解组织拥有什么,来自何处以及如何使用它会带来更大的回报。“


6.检查模型是否存在偏差迹象


数据科学家不仅需要确保他们的数据是干净的,而且他们还需要确保他们的数据和数据模型不包含任何偏差。这个问题可能会以几种不同的方式无意中进入到机器学习模型中。


首先,组织可能有不完整的训练数据。例如,如果企业只使用欧洲面孔训练其面部识别系统,那么当系统难以识别非洲或亚洲面孔时,人们不应对此感到惊讶。


其次,许多数据集包括历史偏差。例如,一些职业(例如护理或工程)在传统上一直是由性别主导的。如果组织根据这些历史数据训练基于人工智能的人力资源系统选择面试候选人,可能会意外地出现偏见,甚至可能触犯反歧视法规。


7.监控调查结果和反馈


而数据科学家通常表示,没有数据模型是完美的。他们所能期望最好的情况就是随着时间的推移而改进。这意味着人类需要监控系统来寻找潜在的道德问题。许多已发布人工智能指南的组织表示,所有人工智能技术都需要对人类负责。但一些人却表示,只是问责是不够的;人类监管者需要积极跟踪人工智能的行为和与人类的互动,并在必要时作出调整,以确保人工智能技术不会跨越任何道德界限。


8.确保可以撤消人工智能所做的任何决定


在相关的说明中,组织需要能够撤消人工智能所做出的任何决定。Forrester公司建议,组织开发的人工智能系统从根本上需要是健全的、可评估的、包容、可逆的,这意味需要设计可更改的人工智能系统,而且可能还需要为信贷决策等事项设立人工智能上诉委员会。


AI Now研究所进一步指出,““技术工作者的组织和抵制已经成为一种责任和道德决策的力量。技术公司需要保护工人的组织能力、揭发信息的能力,并在他们从事的项目上做出道德选择。这应包括明确的政策,以适应和保护有责任心的反对者,确保工作人员有权知道他们在做什么,并有能力在没有报复或惩罚的情况下放弃此类工作。”


9.成立人工智能道德咨询委员会


包括谷歌公司在内的多家科技公司已成立人工智能道德咨询委员会,以帮助指导他们使用人工智能。虽然让一群局外人监督组织的人工智能工作可能有助于建立公众信任,但也可能适得其反。一些组织因任命人工智能道德委员会成员而受到批评,有些人对此表示反对。


虽然成立人工智能道德委员会可能存在一些问题,但在缺乏监管法规或行业标准的情况下,它们可能是组织说服公众的最佳机会,即通过没有既得利益的人员监督人工智能的发展。

相关文章
|
2月前
|
机器学习/深度学习 人工智能 自动驾驶
人工智能的伦理困境:当机器学习遇见道德选择
在人工智能飞速发展的今天,技术的进步不仅带来了便利和效率,也引发了一系列伦理问题。本文将探讨AI在决策过程中面临的伦理挑战,以及如何通过设计、立法和教育等手段来解决这些问题。
73 3
|
2月前
|
人工智能 数据安全/隐私保护
人工智能伦理:我们如何确保AI的正义与道德?
【8月更文挑战第7天】在AI技术飞速发展的今天,伦理问题逐渐浮出水面。本文深入探讨了AI伦理的重要性,分析了当前面临的挑战,并提出了确保AI应用正义与道德的可能途径。通过具体案例分析,文章揭示了AI决策过程中潜在的偏见和歧视问题,强调了建立全面伦理框架的必要性。最后,文章呼吁全社会共同努力,推动AI技术的健康发展。
|
2月前
|
人工智能 算法 自动驾驶
人工智能浪潮下的道德困境与技术挑战
【8月更文挑战第31天】 在人工智能的飞速发展中,我们面临着前所未有的道德和技术问题。本文将探讨AI技术带来的伦理挑战,包括隐私保护、算法偏见和责任归属等问题,并分析当前技术发展面临的限制,如数据获取困难、模型泛化能力和人机交互的局限性。文章旨在启发读者思考如何在享受AI技术便利的同时,确保技术的健康发展和社会的公正性。
|
2月前
|
机器学习/深度学习 人工智能 算法
【人工智能】机器学习、分类问题和逻辑回归的基本概念、步骤、特点以及多分类问题的处理方法
机器学习是人工智能的一个核心分支,它专注于开发算法,使计算机系统能够自动地从数据中学习并改进其性能,而无需进行明确的编程。这些算法能够识别数据中的模式,并利用这些模式来做出预测或决策。机器学习的主要应用领域包括自然语言处理、计算机视觉、推荐系统、金融预测、医疗诊断等。
41 1
|
2月前
|
机器学习/深度学习 人工智能 自动驾驶
人工智能浪潮下的道德困境:我们如何面对?
在人工智能的飞速发展中,我们不仅见证了技术的突破和创新,也面临着前所未有的道德挑战。本文将探讨AI技术带来的伦理问题,分析其对社会、经济和文化的影响,并尝试提出解决方案。我们将一起思考,如何在尊重人类价值的同时,引导AI技术的健康发展。
35 1
|
2月前
|
机器学习/深度学习 人工智能 算法
人工智能浪潮下的道德困境与伦理挑战
【8月更文挑战第23天】在人工智能技术日新月异的今天,我们正面临一个前所未有的道德和伦理难题。本文将探讨AI技术带来的正面影响与潜在风险,并分析如何在保障技术进步的同时,维护人类伦理的底线。我们将从AI技术的本质出发,逐步深入到它对社会、工作、隐私等方面的深远影响,最后讨论如何在全球化背景下建立一套行之有效的伦理框架。文章旨在启发读者对AI时代的深层次思考,鼓励大家成为希望在世界上看到的改变。
|
3月前
|
人工智能 算法 自动驾驶
人工智能的伦理困境:当机器拥有道德决策权
随着人工智能技术的飞速发展,机器逐渐在多个领域承担起人类的工作,甚至在某些情境下开始参与或主导决策过程。然而,当AI涉足需要道德判断的领域时,一系列复杂的伦理问题随之浮现。本文将探讨AI进行道德决策时所面临的挑战,分析可能的后果,并提出未来研究方向。
|
2月前
|
人工智能 算法 自动驾驶
人工智能伦理:当技术超越道德边界
【8月更文挑战第17天】随着人工智能技术的飞速发展,其应用范围已深入人类社会的方方面面。然而,AI的快速发展亦带来了诸多伦理问题,如隐私侵犯、偏见增强及失业风险等。本文将探讨AI技术在伦理方面面临的挑战,并提出相应的解决策略,旨在引导AI技术健康发展,同时保障社会公正与个人权益。
|
3月前
|
机器学习/深度学习 人工智能 自动驾驶
人工智能伦理:当机器拥有道德判断
【7月更文挑战第22天】在人工智能(AI)的迅速发展中,一个日益受到关注的问题是如何确保这些系统在做出决策时能够遵循人类的伦理标准。本文探讨了AI伦理的必要性、挑战以及可能的解决方案,旨在为读者提供一个关于如何构建更负责任的AI系统的全面视角。
|
3月前
|
人工智能 算法 自动驾驶
人工智能伦理:当机器拥有道德指南针
【7月更文挑战第18天】随着人工智能技术的飞速发展,机器不仅在计算能力上超越了人类,而且在决策过程中开始模仿甚至超越人类的道德判断。本文探讨了人工智能伦理的重要性,分析了AI在遵循道德准则时面临的挑战,并提出了建立有效AI伦理框架的方法。通过案例研究,文章强调了在AI设计和应用中嵌入伦理原则的必要性,以及如何通过教育和政策制定来确保人工智能的道德使用。
下一篇
无影云桌面