当年轻人开始谈论AI伦理

简介: 无可否认的是,伴随着人工智能的大规模产业化应用,一些无先例可循的人机矛盾逐渐浮出了水面,以至于找到一种可预期的、可被约束的、行为向善的人工智能治理机制,成了人工智能时代的首要命题。

戳这里免费开通百种视觉AI能力


赛博朋克的电影里,常常可以看到这样的构想:

社会已经被财阀集团所控制,人工智能充当了统治的工具,所有人的行为都要遵循机器的逻辑、服从算法的规则。然后生活在社会最底层的主角,找到了其中的漏洞并尝试走出被操控的宿命。

可能在大多数的认知里,类似的反乌托邦世界离我们还很遥远。但当人工智能技术从象牙塔走进现实生活,与AI伦理有关的议题逐渐成为学术界争论的焦点,甚至有一些年轻人也开始思考算法的伦理和风险。

比如在B站上小有名气的视频博主“在下小苏”制作的一期内容里,对DeepFake、人机恋爱等话题进行了讨论 ,诸如DeepFake等黑科技被用来恶搞甚至是作恶的时候,我们对人工智能应该秉持什么样的态度?一旦“技术中立”被越来越多人抨击,我们应该如何处理新时代的人机关系?

或许AI伦理的概念还有些宏观,却是与每一个人息息相关的事。

无处不在的算法歧视

人工智能离我们并不遥远。

当你打开资讯应用时,算法会根据你的喜好自动推荐新闻;当你去电商平台购物的时候,算法会结合你的习惯推荐对应的商品;当你去求职应聘的时候,首先处理简历并进行筛选的可能也是算法;当你去医院看病就医的时候,医生可能会利用某个算法模型来判断患病的可能性……

算法正在以前所未有的速度渗透到我们的生活中。在支持者眼中,算法可以在一些决策中减少人为干预,进而提升决策 的效率和准确性。可从批判的角度出发,算法是否带有人为的偏见,人们的命运是否会被算法左右?

遗憾的是,算法歧视现象往往是算法落地应用的衍生品。

image.png

亚马逊曾在2014年开发了一套“算法筛选系统”,目的是在招聘的时候帮助HR筛选简历,开发团队打造了500个算法模型 ,同时教算法识别50000个曾经在简历中出现的术语,然后对应聘者的不同能力分配权重。

最后开发团队却发现,算法对男性应聘者有着明显的偏好,如果识别出简历中有女子足球俱乐部、女子学校等经历时,就会对简历给出相对比较低的分数。这个算法模型最终被路透社曝光,亚马逊也适时停止了算法的使用,令人深思的却是:为何“没有价值观”的算法开始有了偏见?

无独有偶,2018年IG夺冠的喜讯让互联网沸腾的时候,战队老板王思聪随即在微博上进行抽奖,结果却出人意料:获奖名单中有112名女性获奖者和1名男性获奖者,女性获奖者比率是男性的112倍,而参与用户的男女比率是1:1.2。

于是不少网友质疑抽奖算法的公平性,甚至有网友主动测试抽奖算法,将获奖人数的设置大于参与人数,仍然有大量用户无法获奖。原因是这些用户被算法判定为“机器人”,意味着在任何抽奖活动中都没有中奖的机会。

在算法的黑匣子面前,我们看到的大多只有结果,却无法理解决策的过程。与之相似的案例可能比比皆是,不过是鲜有人关注罢了。

最直接的教训就是互联网,硅谷自由的法度诞生了互联网,以至于一些原罪被人们选择性忽略,最终在20多年后出现了一轮轮对互联网的批判。正如纽约时报在《减少互联网是唯一的答案》一文中,将互联网归结为带有集权主义意识形态的技术,互联网企业被形容为一群驱使着技术的“邪恶魔王”。

对互联网的批判大概率不会让人们减少互联网的使用,却给出了一个思路:为何互联网会从万众仰慕的行业沦为过街老鼠,倘若算法的应用和算法歧视现象不被制约,又将在未来某一天掀起多大的波澜?

根源在于人性的偏见

当然,算法的“偏见”并不缺少合理的解释。

一种说法是将机器学习结果的偏见归咎于数据集偏见,而非算法偏见的“技术中立”。比较知名的支持者就有被称作“卷积神经网络之父”的杨立昆,比较常见的论证是:如果某人持菜刀砍了人,难道是菜刀厂商甚至“菜刀本刀”的错?

另一种解释是数据量太小,当算法学习的数据量越大时,算法的错误会越少,而且结果会越趋向于精准。即使可以开发出一套筛选系统,将不带偏见的数据输入给算法,也无法达到绝对的公平。毕竟“主流”永远拥有更多的数据,算法最终会偏向于大多数,对“非主流”产生所谓的歧视现象。

两种说法其实讲了一个相同的道理:计算机领域有个著名的缩写是GIGO,即Garbage in, Garbage Out。翻译成中文的意思是,如果输入的是垃圾数据,那么输出的也将是垃圾的结果。算法就像是现实世界的镜子,可以折射出社会中人们意识到或者无意识的偏见,如果整个社会对某个话题有偏见,算法输出结果自然是有歧视的。

德国哲学家雅斯贝尔斯曾在《原子弹与人类的未来》写道:“技术本身既非善,亦非恶,但它既可以用于善,也可以用于恶。它本身不包含任何观念:既不包含完美的观念,也不包含毁灭的邪恶观念;它们都有别的源头——在人类自身之中。”

image.png

也就是说,算法歧视的根源其实在于人性的偏见,“算法中立”之流的观点本质上是对人性偏见的掩饰,也恰恰是人工智能让人恐惧的地方 。

任何一项技术的出现,都有“工具性”和“目的性”两个维度,选择权其实留给了人类自身。然而人性往往经不起考验,无法想象当“工具”交到人们手中又缺少节制的时候,将会做出多大的恶。

就像“小苏”在视频中提到的DeepFake算法,2017年亮相时就引起了巨大的轰动,一位名为Deepfakes的用户将神奇女侠扮演者盖尔·加朵的脸换到了一部成人电影女主角身上,以假乱真的效果引发了巨大的争议。

由于DeepFake算法的出现,原本只有专业电影制作机构才能完成的任务,普通人经过一段时间的学习也能掌握,就像是一头冲出笼子的野兽:加蓬总统Ali Bongo利用DeepFake合成的新年致辞,意外引发了军方的兵变;有人用DeepFake合成马来西亚经济部长与男性在一起的视频,给政府造成了不小的烦恼;在世界上无数隐蔽的角落里,有人利用DeepFake进行欺诈勒索……

在这个“算法无处不在”的世界里,我们该如何自处?

把野兽关进铁笼子里

作为新时代的“火种”,我们可能无法拒绝人工智能。

因为人工智能的应用,质检线上的工人无须再盯着强光下的产品用眼睛寻找瑕疵;因为人工智能的应用,基层的医生也可以根据病人的检查结果做出准确的病情判断;因为人工智能的应用,一群不会输入法的老年人也能用语音走进互联网世界……

不过一切美好的前提在于,先将野兽关进铁笼子里。

或许可以借用《人民日报》在评论“快播案”时的观点:技术不但必然负荷价值,而且还有伦理上“应当”负荷的“良善”价值:维持法律与习俗的稳定,远离破坏和颠覆。一旦违逆了这条原则,任何技术都将被打上可耻的烙印。

言外之意,技术不应该是独立于现实的乌托邦,科技的崛起离不开必要的监管,在法律法规上划清技术应用的边界,为技术中立套上伦理的枷锁,可以说是人工智能技术行稳致远的前提所在。

同时越来越多的学者也在讨论代码与法律之间的关系,担忧算法会不会动摇现有人类社会法律的基本框架,并提出了“算法规制”的概念,一种以算法决策为手段的规制治理体系,可以理解为利于算法治理的工具。

image.png

而除了这些防御性的机制,或许还存在另外一种可能:对算法开发者进行适当的“AI伦理”教育,确定一些算法的“基本准则”,就像“机器人永不能伤害人类”的铁律一样,从源头杜绝算法的滥用。

目前包括中国社科院、清华大学、复旦大学、上海交大等在内的科研机构与高校,均已经开始进行AI伦理的相关研究。世界人工智能大会、北京智源大会等行业顶级峰会,也将AI伦理作为讨论的议题。在人工智能普及过程中扮演了领头羊作用的企业们,同样应该肩负普及AI伦理观念的义务,为年轻人上好AI第一课。

早在一百多年前的时候,美国最高法院大法官路易斯·布兰代斯就曾发表言论称:“阳光是最好的杀毒剂。”同样的道理也适用于人工智能教育,在教会年轻人用人工智能改变世界的同时,还要让他们明白善恶、底线和边界。

沿用前面提到的那个例子,菜刀在设计它的时候就已经标注了它的用途,人工智能也是如此,应该将其控制在可理解的天花板下,而非放任在失控的黑箱中,AI伦理就是其中的天花板。

写在最后

无可否认的是,伴随着人工智能的大规模产业化应用,一些无先例可循的人机矛盾逐渐浮出了水面,以至于找到一种可预期的、可被约束的、行为向善的人工智能治理机制,成了人工智能时代的首要命题。

或许无须太过沮丧 ,从钻木取火的原始时代到计算机时代,人类一直走在学习科技、利用科技、掌控科技的路上,期间虽然走了一些弯路,终究做出了一次次善的选择,找到了正确的驭火之术。而学习AI伦理的“AI第一课”,恰恰就是规避AI走向恶的一面,理性驾驭AI的正确开始。

当Z世代的年轻人都在讨论AI伦理的时候,构建出一套完美的人工智能治理规则,已经不再遥不可及。


原文链接:https://ai.51cto.com/art/202011/630997.htm
本文转自51CTO,本文一切观点和机器智能技术圈子无关。
在线免费体验百种AI能力:【点此跳转】
机器智能技术结尾二维码.png

目录
相关文章
|
3月前
|
机器学习/深度学习 人工智能 安全
智能时代的伦理挑战:AI技术与人类价值的交锋
在人工智能的飞速发展之下,我们站在了一个技术与伦理交织的十字路口。本文将探讨AI技术如何重塑我们的工作、生活和思维方式,同时引发了一系列关于隐私、安全和道德的讨论。通过分析AI在不同领域的应用案例,我们将揭示这一技术革新背后的复杂伦理问题,并提出相应的解决策略。随着AI技术的不断进步,人类社会必须找到平衡创新与维护人类核心价值的方法。
|
2月前
|
人工智能 监控 算法
智能时代的伦理困境:AI技术的道德边界探索人工智能在教育领域的革新之路未来编程:人工智能与代码共生的新篇章
【8月更文挑战第21天】在人工智能(AI)技术飞速发展的今天,我们正处在一个前所未有的科技变革时期。随着AI技术的深入人类生活的方方面面,它不仅带来了便利和效率的提升,同时也引发了关于道德和伦理的深刻讨论。本文将探讨AI技术发展中遇到的伦理挑战,以及如何建立合理的道德框架来指导AI的未来应用,确保技术进步与人类社会价值观的和谐共存。
232 61
|
15天前
|
存储 人工智能 算法
AI伦理学:建立可信的智能系统框架
【9月更文挑战第26天】随着AI技术的迅猛发展,其在各领域的应用日益广泛,但也带来了算法偏见、数据隐私泄露、就业替代等伦理和法律挑战。本文探讨AI伦理学的核心议题,包括数据隐私保护、算法公平性与透明度、机器决策责任归属及对就业市场的影响,并提出建立可信智能系统框架的建议,如强化法律法规、技术创新、建立监督机制、行业自律和公众教育,以确保AI技术的可持续发展和社会接受。
|
2月前
|
人工智能 数据安全/隐私保护
人工智能伦理:我们如何确保AI的正义与道德?
【8月更文挑战第7天】在AI技术飞速发展的今天,伦理问题逐渐浮出水面。本文深入探讨了AI伦理的重要性,分析了当前面临的挑战,并提出了确保AI应用正义与道德的可能途径。通过具体案例分析,文章揭示了AI决策过程中潜在的偏见和歧视问题,强调了建立全面伦理框架的必要性。最后,文章呼吁全社会共同努力,推动AI技术的健康发展。
|
29天前
|
机器学习/深度学习 人工智能 自然语言处理
AI的伦理挑战与未来方向
在人工智能技术飞速发展的今天,我们不得不面对一个尖锐的问题:AI是否能够拥有自我意识,并对其行为负责?这不仅是一个科学问题,更是一个哲学和伦理问题。文章将探讨AI的自主性、责任归属以及未来发展方向,以期引发读者对于AI伦理问题的深入思考。
|
1月前
|
人工智能 算法 安全
AI伦理:探索智能时代的道德边界
【9月更文挑战第10天】随着AI技术的发展,我们步入了智能时代,AI的应用为社会带来便利的同时,也引发了伦理道德的讨论。本文探讨了数据隐私、算法偏见及系统透明度等伦理问题,并提出制定法规、行业自律、伦理审查及跨学科合作等策略,旨在确保AI技术的健康发展,构建智能、公平、安全的未来。通过共同努力,我们能在技术进步与道德边界间找到平衡点,推动社会持续进步。
|
1月前
|
机器学习/深度学习 人工智能 算法
AI伦理边界:当机器决策超越人类认知
【9月更文挑战第5天】AI伦理边界的探索是一个复杂而艰巨的任务,需要政府、企业、学术界和社会各界的共同努力。随着AI技术的不断发展,我们有理由相信,通过不断的探索和实践,我们一定能够找到一条既符合伦理道德又能够充分发挥AI技术潜力的道路。在未来的日子里,让我们携手并进,共同迎接AI技术带来的机遇与挑战。
|
1月前
|
存储 人工智能 安全
AI的伦理困境:我们是否准备好迎接智能时代?
在人工智能技术飞速发展的今天,我们面临着前所未有的挑战。AI技术的进步带来了巨大的便利,但同时也引发了一系列伦理问题。本文将探讨AI技术的发展趋势,分析其带来的伦理挑战,并讨论如何确保AI技术的健康发展。
|
15天前
|
存储 人工智能 JavaScript
根据Accenture的研究,CEO和CFO谈论AI和GenAI是有原因的
数字化转型与当前GenAI领导者之间的关键区别在于,CEO和CFO(而非CIO)似乎参与了指导AI投资的过程。例如,Accenture在2024年1月报告称,到2023年底,在财报电话会议中提到AI的次数几乎达到4万次,因为C级领导层正在为“重大技术变革”做好准备
28 0
|
2月前
|
人工智能 自动驾驶 安全
探索人工智能的伦理边界:我们如何与AI共存?
【8月更文挑战第27天】在这篇文章中,我们将深入探讨人工智能(AI)技术背后的伦理问题。随着AI技术的迅速发展,它已经在各个领域产生了深远的影响,从自动驾驶汽车到医疗诊断,再到虚拟助手。然而,这些进步也引发了关于隐私、安全性和责任等一系列伦理问题。本文将通过分析AI技术的实际应用案例,探讨如何在保障人权和尊重个人隐私的同时,推动AI技术的发展和应用。我们将提出一些指导原则,以帮助决策者、开发者和用户更好地理解和应对AI技术带来的伦理挑战。

热门文章

最新文章