人类自身都对不齐,怎么对齐AI?新研究全面审视偏好在AI对齐中的作用

简介: 论文《AI对齐中的超越偏好》挑战了偏好主义AI对齐方法,指出偏好无法全面代表人类价值观,存在冲突和变化,并受社会影响。文章提出基于角色的对齐方案,强调AI应与其社会角色相关的规范标准一致,而非仅关注个人偏好,旨在实现更稳定、适用性更广且更符合社会利益的AI对齐。论文链接:https://arxiv.org/pdf/2408.16984

在人工智能(AI)领域,一个关键问题是如何确保AI系统与人类价值观相一致,即所谓的AI对齐问题。目前,AI对齐的主流实践基于三个假设:1)偏好是代表人类价值观的适当方式;2)人类理性可以通过最大化偏好满足来理解;3)AI系统应该与一个或多个人类的偏好相一致,以确保它们安全地运行并符合我们的价值观。这些承诺构成了所谓的偏好主义AI对齐方法。

然而,最近一篇由多位研究人员合作撰写的论文对偏好主义方法提出了挑战,并提出了一些概念和技术上的替代方案,这些方案值得进一步研究。该论文名为《AI对齐中的超越偏好》,作者包括来自麻省理工学院、加州大学伯克利分校和伦敦大学学院的研究人员。

论文首先对理性选择理论作为描述性模型的局限性进行了调查,解释了偏好如何未能捕捉人类价值观的丰富语义内容,以及效用表示如何忽略了这些价值观之间可能的不可比性。然后,论文对人类和AI的预期效用理论(EUT)的规范性进行了批判,引用了一些论点,说明理性代理人不需要遵守EUT,同时强调EUT对哪些偏好在规范上是可接受的保持沉默。

基于这些局限性,论文提出了一种重新表述AI对齐目标的方法:而不是与人类用户、开发者或整个人类的偏好相一致,AI系统应该与与其社会角色相关的规范标准相一致,例如作为一个通用助手的角色。此外,这些标准应该由所有相关利益相关者进行谈判和同意。

在这种替代性的对齐概念下,多种AI系统将能够服务于不同的目标,并与促进相互利益和限制伤害的规范标准相一致,尽管我们的价值观是多元的和不同的。

论文对偏好主义方法的批判主要集中在以下几个方面:

  1. 偏好不能完全代表人类价值观:人类价值观是复杂多样的,包括道德、伦理、文化和社会因素等多个层面。而偏好只是人类行为的一个方面,不能完全代表这些复杂的价值观。

  2. 偏好可能存在冲突和变化:人类的偏好并不是一成不变的,它们可能会随着时间、环境和个人经历的变化而发生变化。此外,不同的人可能有不同的偏好,这些偏好之间可能存在冲突。

  3. 偏好可能存在社会影响:人类的偏好并不是孤立存在的,它们可能受到社会、文化、政治等因素的影响。因此,仅仅关注个人偏好而忽略这些社会影响可能会导致AI系统与人类价值观的不一致。

论文提出的替代方案是基于角色的对齐,即AI系统应该与与其社会角色相关的规范标准相一致。这种方案具有以下潜力:

  1. 更广泛的适用性:基于角色的对齐方案不仅仅关注个人偏好,而是考虑了AI系统在社会中的角色和功能。因此,它可能更适用于各种不同的AI应用场景。

  2. 更稳定的对齐:由于基于角色的对齐方案考虑了AI系统在社会中的角色和功能,因此它可能更稳定,不易受到个人偏好变化或冲突的影响。

  3. 更广泛的参与:基于角色的对齐方案强调了利益相关者的参与和协商,这有助于确保AI系统的设计和运行符合更广泛的社会利益。

论文地址:https://arxiv.org/pdf/2408.16984

目录
相关文章
|
7月前
|
机器学习/深度学习 编解码 人工智能
麻省理工AI新研究可将马赛克变视频
【2月更文挑战第30天】麻省理工学院等机构的研究团队推出AI新技术FeatUp,可将低分辨率图像提升为高清视频,该技术在2024年ICLR会议上引起关注。FeatUp基于深度特征提取,通过多视角一致性损失恢复空间信息,提高视频清晰度。模型通用性强,适用于多种任务和现有应用。实验显示,它在图像超分辨率和端到端学习模型性能提升上超越其他方法。然而,尚存在对某些内容处理不完善和计算资源需求高的局限性。
124 2
麻省理工AI新研究可将马赛克变视频
|
2月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
41 1
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
AI自己长出了类似大脑的脑叶?新研究揭示LLM特征的惊人几何结构
近年来,大型语言模型(LLM)的内部运作机制备受关注。麻省理工学院的研究人员在论文《The Geometry of Concepts: Sparse Autoencoder Feature Structure》中,利用稀疏自编码器(SAE)分析LLM的激活空间,揭示了其丰富的几何结构。研究发现,特征在原子、大脑和星系三个尺度上展现出不同的结构,包括晶体结构、中尺度模块化结构和大尺度点云结构。这些发现不仅有助于理解LLM的工作原理,还可能对模型优化和其他领域产生重要影响。
53 25
|
1月前
|
人工智能 知识图谱
成熟的AI要学会自己搞研究!MIT推出科研特工
MIT推出科研特工SciAgents,结合生成式AI、本体表示和多代理建模,实现科学发现的自动化。通过大规模知识图谱和多代理系统,SciAgents能探索新领域、识别复杂模式,加速新材料发现,展现跨学科创新潜力。
46 12
|
1月前
|
机器学习/深度学习 人工智能 算法
基于AI的性能优化技术研究
基于AI的性能优化技术研究
|
2月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
49 6
|
2月前
|
人工智能 自然语言处理 机器人
MIT新研究揭秘AI洗脑术!AI聊天诱导人类编造记忆,真假难辨
麻省理工学院的一项新研究《基于大型语言模型的对话式AI在证人访谈中加剧虚假记忆》显示,使用生成式聊天机器人进行犯罪证人访谈会显著增加参与者的虚假记忆,且影响持久。研究设置了对照组、问卷访谈、预设脚本及生成式聊天机器人四种条件,结果显示生成式聊天机器人诱导的虚假记忆数量远超其他方法。尽管AI技术在效率和准确性方面潜力巨大,但在敏感领域需谨慎应用,并需进一步评估风险,制定伦理准则和监管措施。论文详细内容见[这里](https://arxiv.org/abs/2408.04681)。
60 2
|
3月前
|
存储 人工智能 JavaScript
根据Accenture的研究,CEO和CFO谈论AI和GenAI是有原因的
数字化转型与当前GenAI领导者之间的关键区别在于,CEO和CFO(而非CIO)似乎参与了指导AI投资的过程。例如,Accenture在2024年1月报告称,到2023年底,在财报电话会议中提到AI的次数几乎达到4万次,因为C级领导层正在为“重大技术变革”做好准备
47 1
|
4月前
|
边缘计算 人工智能 监控
边缘计算与AI结合的场景案例研究
【8月更文第17天】随着物联网(IoT)设备数量的爆炸性增长,对实时数据处理的需求也随之增加。传统的云计算模型在处理这些数据时可能会遇到延迟问题,尤其是在需要即时响应的应用中。边缘计算作为一种新兴的技术趋势,旨在通过将计算资源更靠近数据源来解决这个问题。本文将探讨如何将人工智能(AI)技术与边缘计算结合,以实现高效的实时数据分析和决策制定。
359 1
|
5月前
|
数据采集 机器学习/深度学习 人工智能
AI小分子药物发现的百科全书,康奈尔、剑桥、EPFL等研究者综述登Nature子刊
【7月更文挑战第12天】康奈尔、剑桥及EPFL科学家合作,详述AI在药物发现中的突破与挑战[^1]。AI现用于新化合物生成、现有药物优化及再利用,加速研发进程。尽管取得进展,可解释性不足、数据质量和伦理监管仍是待解难题。 [^1]: [论文链接](https://www.nature.com/articles/s42256-024-00843-5)
73 3