科学家说:AI有加强现存偏见的可能

简介:


桑斯坦在《网络共和国》当中提出了算法影响我们的认知世界、并在《信息乌托邦》当中第一次明确提出了算法使人形成“信息茧房”的危害。这是算法对于人脑的影响,而算法应用于人工智能中,也让偏见在人工智能当中存在——由于语言本身具有偏见,人工智能通过算法习得了它们,甚至人工智能有可能加强这一偏见。但这是否是一个坏事情,还值得我们探讨。

在过去的数年中,诸如谷歌翻译这样的程序在语言翻译方面进步神速,这一进步多亏了新的机器学习技术和大量可获得的在线文本数据,它们使得算法可以被检验。

人工智能(AI)工具彻底变革了计算机翻译日常用语的能力,但也表现出了显著的性别和种族偏见。根据《科学》杂志中最新的研究表明,随着机器越容易习得类人的语言能力,它们同样就越容易习得语言应用范式中根深蒂固的偏见。

随着越来越多影响我们日常生活的问题让渡给机器人作出决定,现存的社会不平等和偏见以新的、不可预知的方式被强化,这一发现使这个噩梦萦绕人们心头。

巴斯大学的计算机科学家和论文的联合作者JoannaBryson说:“许多人认为这表明了AI具有偏见。其实并不然,这表明了我们是有偏见的,而AI正在学习这种偏见。”

但Bryson同样警告说,AI有着加强现存偏见的可能,因为不同于人类,算法无法自觉抵抗习得的偏见。她说:“危险在于AI系统不为道德所驾驭,一旦你拥有了这样的一个系统,这就糟糕了。”

文字嵌入:获取单词背后的文化和社会背景含义

论文聚焦于机器学习工具,即“文字嵌入”,这种机器学习工具已经改变了计算机翻译演讲和文本的方式。有人声称下一步自然就是使机器发展出类人能力,比如具有常识判断和逻辑。

普林斯顿大学的计算机科学家和论文的资深作者ArvindNarayanan说:“我们选择研究文字嵌入的主要原因,是由于在最近几年里,帮助机器搞清语言方面的努力已经取得了令人惊叹的成功。”

这一已经应用于网页检索和机器翻译的方法通过建立起一种语言的数学化表述来发挥作用。在这种数学化的表述下,文字和基于其一同频繁出现的意义一道,被抽象为一系列数字(即矢量)。尽管这令人惊奇,但算法似乎正在以一种字典也不能定义的方式,获取一个单词背后丰富的文化和社会背景含义。

比如,在数学化的“语言空间”中,“花”的单词总是与具有褒义的词汇相联系,而“昆虫”的单词则相反,反映出人们对昆虫和花不同价值的共同观点。最新的论文展示出,一些在人类心理实验中更为棘手的隐性偏见同样可以被算法轻而易举地习得。“女性”和“女人”更易于同艺术人文类岗位和家庭联系起来,而“男性”和“男人”则是与数理和工程类岗位。同时,人工智能系统更有可能将欧裔美国人的名字与褒义词联系起来,比如“天赋”或“快乐”,而非裔美国人的名字一般则更易与贬义词相联系。

这一发现表明,人们(至少在英美)在隐性的关联测试中将褒义词与白面孔联系在一起,算法习得了这一偏见。

这些偏见会对人类行为产生深远影响。曾有研究表明,对于一份完全相同的简历,有着欧裔美国人名字的候选人会比有着非裔美国人名字的候选人更有可能获得面试邀请,这一可能性超过了50%。最新的结果显示,除非明确进行了程序化处理,算法将会充满同样的社会偏见。

“如果你不相信人名和种族主义之间存在着联系的话,这就是证据。”Bryson说。

该研究中,机器学习工具的检验基于一个名为“网络爬虫”的资料库——它包含了在线发表的资料,包括8400亿个单词。使用谷歌新闻的数据做检验,也得到了相似的结果。

算法为处理偏见提供机会

牛津大学的数据伦理和算法的研究者SandraWachter说:“世界是有偏见的,历史数据是有偏见的,因此我们得到了有偏见的结果也就不足为奇了。”她补充道,“与其说算法代表着一种威胁,它们更能为处理偏见提供机会,以及在合适的时机消除这些偏见。”

“至少我们可能在算法出现偏见的时候获悉这种偏见,”她说,“而人类呢,却可以在不雇佣某人的原因上撒谎。相比而言,我们不用指望算法欺骗我们。”

但是Wachter声称,未来的挑战在于,如何在消除算法中不合理的偏见之余,依旧保留它强有力的翻译能力,毕竟算法是设计来理解语言的。

“理论上我们可以建立系统检测有偏见的决策并对此采取行动,”Wachter说,她与其他人一道,呼吁建立起针对人工智能的监管,“这是一项复杂的任务,但却是我们社会不能回避的责任。”



本文出处:畅享网
本文来自云栖社区合作伙伴畅享网,了解相关信息可以关注vsharing.com网站。

目录
相关文章
|
1月前
|
人工智能
AI科学家太多,谁靠谱一试便知!普林斯顿新基准CORE-Bench:最强模型仅有21%准确率
【10月更文挑战第21天】普林斯顿大学研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准,涵盖计算机科学、社会科学和医学领域的270个任务。该基准旨在评估AI代理在科学研究中的准确性,具有多样性、难度级别和现实相关性等特点,有助于推动AI代理的发展并提高计算可重复性。
54 4
|
2月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
47 6
|
2月前
|
机器学习/深度学习 存储 人工智能
2024年诺贝尔奖:AI科学家的辉煌时刻 | AI大咖说
在今年的诺贝尔物理学奖和化学奖颁奖典礼上,AI科学家分别摘得了这两项殊荣,这无疑为AI技术的发展和应用注入了新的动力【10月更文挑战第5天】
84 0
|
3月前
|
人工智能 数据处理
Nature:AI让抄袭问题更加复杂,科学家该如何应对?
【9月更文挑战第16天】《自然》杂志一篇文章指出,AI在科研领域的应用日益增长,带来了加速数据处理、提升计算效率等益处,同时也引发了对科学标准、数据偏见及研究诚信的挑战。一项针对1600多名研究人员的调查显示,超半数认为未来十年AI将成为其研究领域不可或缺的工具。AI能够显著提升科研效率,但也可能增加对模式识别的依赖,加剧数据偏见,并引发研究不可重复性等问题。尤其是大型语言模型如ChatGPT,虽有助于改进论文语法和翻译,但也可能传播错误信息。此外,部分科学家面临计算资源和高质量数据不足等使用障碍。
51 3
|
7月前
|
机器学习/深度学习 人工智能 机器人
Meta首席科学家Yann LeCun:AI毁灭人类的概率为零
【2月更文挑战第22天】Meta首席科学家Yann LeCun:AI毁灭人类的概率为零
53 2
Meta首席科学家Yann LeCun:AI毁灭人类的概率为零
|
7月前
|
机器学习/深度学习 人工智能 监控
【AI 现况分析】AI 算法偏见和歧视分析
【1月更文挑战第27天】【AI 现况分析】AI 算法偏见和歧视分析
|
机器学习/深度学习 人工智能 算法
新的「AI科学家」结合理论和数据来发现科学方程
新的「AI科学家」结合理论和数据来发现科学方程
131 0
|
机器学习/深度学习 人工智能 算法
|
人工智能 测试技术
研究表明,AI 工具未能减少招聘偏见
研究人员在一项调查中发现,人工智能招聘工具未能起到减少偏见或提升多样性的作用。
123 0
研究表明,AI 工具未能减少招聘偏见
|
机器学习/深度学习 人工智能
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:40-11:10金驰《Near-Optimal Reinforcement Learning with Sel》
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:40-11:10金驰《Near-Optimal Reinforcement Learning with Sel》
AI:2020年6月24日北京智源大会演讲分享之机器学习前沿青年科学家专题论坛——10:40-11:10金驰《Near-Optimal Reinforcement Learning with Sel》
下一篇
DataWorks