中国人工智能学会通讯——AI时代的若干伦理问题及策略 1.3 构建算法治理的内外部约束机制

简介:

1.3 构建算法治理的内外部约束机制

对于前面说的一些伦理问题,人们可能需要提前构建算法治理的内外部约束机制,这里我谈四点。

image

第一个是合伦理的AI设计,即要将人类社会的法律、道德等规范和价值嵌入AI系统。这是国际标准化组织IEEE在提倡的。可以分三步来实现。一是规范和价值的发现,首先需要确定AI系统到底需要遵守哪些法律和价值规范,但是在这里可能存在道德过载和价值位阶的问题,在不同价值发生冲突时该如何选择,这个更多需要跨学科的工作。第二步,当已经明确了这些规范以后,怎么嵌入AI系统。道德规范以及法律是不是可以变成计算机代码?现在存在两种方法论,一种是自上而下的,即把需要遵守的规则写入系统,然后在不同的情况下自己将价值具体化,就是从抽象原则到具体行为的推理,比如之前的机器人三定律,但过于抽象。另外一种是自下而上的,是一个自我学习的过程,事先不告诉AI系统价值和规范道德是什么,而是让系统从观察人类行为中获得有关价值的信息,最后形成判断。第三步,在将价值嵌入AI系统以后,需要对规范和价值进行评估,评估它是不是和人类的伦理价值相一致的,而这需要评估标准。一方面是使用者评估,作为用户怎么建立对AI的信任;如果系统的行为超出预期,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。

image

但还是有两个需要面对的困境。第一个是伦理困境。比如,MIT在它的网站上就自动驾驶汽车伦理困境下的选择向全球网民征集意见。在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的问题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类社会都是没有解决的,在自动化的场景下也会遇到这样的问题。

image

第二个是价值对接的问题。其实现在的机器人很多都是单一目的的,你让他去拿咖啡,他就会“一心一意”地克服任何困难去拿咖啡,扫地机器人就会一心一意地扫地。但机器人的行为真的是我们人类想要的吗?这就产生了价值对接问题。可以举一个神话故事,Midas国王想要点石成金的技术,结果当他拥有这个法宝时,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么?因为这个法宝并没有理解Midas的真正意图,那么机器人会不会给我们人类带来类似的情况?这个问题值得深思。所以有人提出来了兼容人类的AI,包括三项原则,一是利他主义,即机器人的唯一目标是最大化人类价值的实现;二是不确定性,即机器人一开始不确定人类价值是什么;三是human-in-the-loop,即人类行为提供了关于人类价值的信息。

image

第二个是需要在AI研发中贯彻伦理原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护等。另一方面,可能AI需要伦理审查制度。伦理审查应当是跨学科的,多样性的,对AI技术和产品的伦理影响进行评估并提出建议,包括业界的DeepMind、IBD等都已经成立伦理审查委员会。而且DeepMind医疗部门的独立审查委员会今年6月将会发布一个独立的报告,未来定期会发布评估报告。

image

第三点,可能需要对算法进行必要的监管,避免算法作恶。因为现在的算法确实是越来越复杂,包括决策的影响都是越来越重大,所以我们未来需要对算法进行一定的,由行业组织或者监管部门进行的监管,可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准等;透明性方面,包括算法自身的代码透明性,以及算法决策透明性,国外现在已经有OpenAI等一些人工智能开源运动。此外,还有审批制度,比如对于自动驾驶汽车、智能机器人等,可能带来公共安全问题,未来可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。

image

第四,针对前面说的算法决策以及歧视,包括造成的人身财产损害,需要提供法律救济。对于算法决策,一方面需要确保透明性,如果用自动化的手段进行决策决定,是需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器人等带来的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是可以考虑的救济措施。

最后总结一下,因为今天的分论坛是智能系统测试,包括图灵测试、语义测试、安全测试等,但是伦理的测试同样重要,包括道德代码、隐私、正义、歧视。现在的AI界更多是工程师在参与,缺乏哲学、伦理学等其他学科的参与,未来这样的跨学科的AI伦理测试需要加强研究。因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更复杂的工具”,但不可否认,我们需要确保这样的复杂工具进入人类社会以后和人类的价值规范和人类的需求是相一致的。

(本报告根据速记整理)

相关文章
|
1月前
|
人工智能 安全 架构师
不只是聊天:从提示词工程看AI助手的优化策略
不只是聊天:从提示词工程看AI助手的优化策略
269 119
|
2月前
|
存储 人工智能 数据可视化
从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现
AI能否从错误中学习?Reflection与Reflexion Agent通过生成-反思-改进循环,实现自我优化。前者侧重内容精炼,后者结合外部研究提升准确性,二者分别适用于创意优化与知识密集型任务。
501 9
从零构建能自我优化的AI Agent:Reflection和Reflexion机制对比详解与实现
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
如何让AI更“聪明”?VLM模型的优化策略与测试方法全解析​
本文系统解析视觉语言模型(VLM)的核心机制、推理优化、评测方法与挑战。涵盖多模态对齐、KV Cache优化、性能测试及主流基准,助你全面掌握VLM技术前沿。建议点赞收藏,深入学习。
679 8
|
2月前
|
机器学习/深度学习 人工智能 算法
当AI提示词遇见精密算法:TimeGuessr如何用数学魔法打造文化游戏新体验
TimeGuessr融合AI与历史文化,首创时间与空间双维度评分体系,结合分段惩罚、Haversine距离计算与加权算法,辅以连击、速度与完美奖励机制,实现公平且富挑战性的游戏体验。
|
4月前
|
机器学习/深度学习 人工智能 自动驾驶
AI Agent多模态融合策略研究与实证应用
本文从多模态信息融合的理论基础出发,构建了一个结合图像与文本的AI Agent模型,并通过PyTorch代码实现了完整的图文问答流程。未来,多模态智能体将在医疗、自动驾驶、虚拟助手等领域展现巨大潜力。模型优化的核心是提升不同模态的协同理解与推理能力,从而打造真正“理解世界”的AI Agent。
AI Agent多模态融合策略研究与实证应用
|
3月前
|
存储 人工智能 自然语言处理
深入解析AI智能体记忆机制:八大策略与实现方案
本文系统介绍了AI智能体8种主流记忆管理策略:从基础的全量记忆、滑动窗口,到智能的相关性过滤、摘要压缩,再到高阶的向量数据库、知识图谱,以及综合的分层记忆和类OS内存管理。详解各策略原理、代码示例、优缺点及适用场景,助你根据业务需求选择最佳方案,构建高效且个性化的AI对话系统。
|
3月前
|
存储 人工智能 搜索推荐
AI智能体记忆机制深度解析:8种策略与实现思路
AI智能体的记忆能力是构建高质量对话与个性化服务的核心。本文解析8种常用记忆策略,包括全量记忆、滑动窗口、相关性过滤、摘要压缩、向量数据库、知识图谱、分层记忆及类OS内存管理,结合代码示例说明其原理与适用场景,助力开发者根据业务需求选择合适方案,实现高效、可扩展的AI系统。
|
3月前
|
人工智能 算法 计算机视觉
只需完成手画线稿,让AI算法帮你自动上色
本文介绍了如何利用图像处理技术生成手绘风格图像及自动上色的方法。内容涵盖图像灰度化、梯度调整、虚拟深度实现手绘效果,以及使用 Python 编程实现相关算法。此外,还介绍了 AI 工具 Style2Paints V4.5,其可为线稿自动上色并支持多种线稿类型,如插画和手绘铅笔稿,适用于艺术创作与图像处理领域。
|
4月前
|
人工智能 缓存 API
8大AI记忆优化策略助你突破智能体上下文限制
本文深入解析AI系统中的记忆管理策略,涵盖8种主流方案及工程实现,助你突破上下文限制,构建高效智能体。
839 0