中国人工智能学会通讯——AI时代的若干伦理问题及策略 1.3 构建算法治理的内外部约束机制

简介:

1.3 构建算法治理的内外部约束机制

对于前面说的一些伦理问题,人们可能需要提前构建算法治理的内外部约束机制,这里我谈四点。

image

第一个是合伦理的AI设计,即要将人类社会的法律、道德等规范和价值嵌入AI系统。这是国际标准化组织IEEE在提倡的。可以分三步来实现。一是规范和价值的发现,首先需要确定AI系统到底需要遵守哪些法律和价值规范,但是在这里可能存在道德过载和价值位阶的问题,在不同价值发生冲突时该如何选择,这个更多需要跨学科的工作。第二步,当已经明确了这些规范以后,怎么嵌入AI系统。道德规范以及法律是不是可以变成计算机代码?现在存在两种方法论,一种是自上而下的,即把需要遵守的规则写入系统,然后在不同的情况下自己将价值具体化,就是从抽象原则到具体行为的推理,比如之前的机器人三定律,但过于抽象。另外一种是自下而上的,是一个自我学习的过程,事先不告诉AI系统价值和规范道德是什么,而是让系统从观察人类行为中获得有关价值的信息,最后形成判断。第三步,在将价值嵌入AI系统以后,需要对规范和价值进行评估,评估它是不是和人类的伦理价值相一致的,而这需要评估标准。一方面是使用者评估,作为用户怎么建立对AI的信任;如果系统的行为超出预期,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。

image

但还是有两个需要面对的困境。第一个是伦理困境。比如,MIT在它的网站上就自动驾驶汽车伦理困境下的选择向全球网民征集意见。在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的问题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类社会都是没有解决的,在自动化的场景下也会遇到这样的问题。

image

第二个是价值对接的问题。其实现在的机器人很多都是单一目的的,你让他去拿咖啡,他就会“一心一意”地克服任何困难去拿咖啡,扫地机器人就会一心一意地扫地。但机器人的行为真的是我们人类想要的吗?这就产生了价值对接问题。可以举一个神话故事,Midas国王想要点石成金的技术,结果当他拥有这个法宝时,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么?因为这个法宝并没有理解Midas的真正意图,那么机器人会不会给我们人类带来类似的情况?这个问题值得深思。所以有人提出来了兼容人类的AI,包括三项原则,一是利他主义,即机器人的唯一目标是最大化人类价值的实现;二是不确定性,即机器人一开始不确定人类价值是什么;三是human-in-the-loop,即人类行为提供了关于人类价值的信息。

image

第二个是需要在AI研发中贯彻伦理原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护等。另一方面,可能AI需要伦理审查制度。伦理审查应当是跨学科的,多样性的,对AI技术和产品的伦理影响进行评估并提出建议,包括业界的DeepMind、IBD等都已经成立伦理审查委员会。而且DeepMind医疗部门的独立审查委员会今年6月将会发布一个独立的报告,未来定期会发布评估报告。

image

第三点,可能需要对算法进行必要的监管,避免算法作恶。因为现在的算法确实是越来越复杂,包括决策的影响都是越来越重大,所以我们未来需要对算法进行一定的,由行业组织或者监管部门进行的监管,可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准等;透明性方面,包括算法自身的代码透明性,以及算法决策透明性,国外现在已经有OpenAI等一些人工智能开源运动。此外,还有审批制度,比如对于自动驾驶汽车、智能机器人等,可能带来公共安全问题,未来可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。

image

第四,针对前面说的算法决策以及歧视,包括造成的人身财产损害,需要提供法律救济。对于算法决策,一方面需要确保透明性,如果用自动化的手段进行决策决定,是需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器人等带来的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是可以考虑的救济措施。

最后总结一下,因为今天的分论坛是智能系统测试,包括图灵测试、语义测试、安全测试等,但是伦理的测试同样重要,包括道德代码、隐私、正义、歧视。现在的AI界更多是工程师在参与,缺乏哲学、伦理学等其他学科的参与,未来这样的跨学科的AI伦理测试需要加强研究。因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更复杂的工具”,但不可否认,我们需要确保这样的复杂工具进入人类社会以后和人类的价值规范和人类的需求是相一致的。

(本报告根据速记整理)

相关文章
|
1月前
|
人工智能 JSON 前端开发
【Spring boot实战】Springboot+对话ai模型整体框架+高并发线程机制处理优化+提示词工程效果展示(按照框架自己修改可对接市面上百分之99的模型)
【Spring boot实战】Springboot+对话ai模型整体框架+高并发线程机制处理优化+提示词工程效果展示(按照框架自己修改可对接市面上百分之99的模型)
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
提升软件测试效率与质量:AI驱动的自动化测试策略
【2月更文挑战第19天】 在快速迭代的软件发展环境中,传统的手动测试方法已无法满足高效率和高质量的要求。本文探讨了人工智能(AI)技术如何革新现有的软件测试流程,通过引入AI驱动的自动化测试策略,旨在提高测试覆盖率,减少人为错误,优化资源分配,并缩短产品上市时间。我们将分析AI在识别潜在缺陷、生成测试用例、执行测试以及结果分析中的应用,并讨论实施这些策略时可能遇到的挑战和限制。
106 3
|
28天前
|
机器学习/深度学习 数据采集 算法
构建高效机器学习模型:从数据处理到算法优化
【2月更文挑战第30天】 在数据驱动的时代,构建一个高效的机器学习模型是实现智能决策和预测的关键。本文将深入探讨如何通过有效的数据处理策略、合理的特征工程、选择适宜的学习算法以及进行细致的参数调优来提升模型性能。我们将剖析标准化与归一化的差异,探索主成分分析(PCA)的降维魔力,讨论支持向量机(SVM)和随机森林等算法的适用场景,并最终通过网格搜索(GridSearchCV)来实现参数的最优化。本文旨在为读者提供一条清晰的路径,以应对机器学习项目中的挑战,从而在实际应用中取得更精准的预测结果和更强的泛化能力。
|
28天前
|
机器学习/深度学习 人工智能 自然语言处理
提升软件测试效率:AI驱动的自动化测试策略
【2月更文挑战第30天】随着人工智能(AI)在软件开发周期中的日益普及,其在提高软件测试效率方面的潜力正受到越来越多的关注。本文探讨了如何通过集成AI技术来优化自动化测试流程,从而减少重复工作、提高错误检测率和加快反馈速度。我们将分析当前AI在自动化测试中的应用,并提出一系列策略以利用AI改进测试案例生成、执行和维护过程。
65 0
|
2月前
|
人工智能 算法 数据安全/隐私保护
AIGC变革下人工智能平台的算法黑箱问题
AIGC变革下人工智能平台的算法黑箱问题
180 1
AIGC变革下人工智能平台的算法黑箱问题
|
2月前
|
机器学习/深度学习 自然语言处理 算法
基于TF-IDF+KMeans聚类算法构建中文文本分类模型(附案例实战)
基于TF-IDF+KMeans聚类算法构建中文文本分类模型(附案例实战)
108 1
|
2月前
|
机器学习/深度学习 人工智能 供应链
人工智能与供应链行业融合:预测算法的通用化与实战化
人工智能与供应链行业融合:预测算法的通用化与实战化
|
3月前
|
机器学习/深度学习 人工智能 监控
【AI 现况分析】AI 算法偏见和歧视分析
【1月更文挑战第27天】【AI 现况分析】AI 算法偏见和歧视分析
|
3月前
|
存储 人工智能 搜索推荐
【利用AI让知识体系化】3万多字让你&我快速入门数据结构与算法(二)
【利用AI让知识体系化】3万多字让你&我快速入门数据结构与算法
|
3月前
|
存储 人工智能 算法
【利用AI让知识体系化】3万多字让你&我快速入门数据结构与算法(一)
【利用AI让知识体系化】3万多字让你&我快速入门数据结构与算法