人工智能时代的伦理框架

简介: 本文讲的是人工智能时代的伦理框架,英国国家医疗服务体系NHS就在其健康医疗大数据平台care.data停摆一事中,失去了这种“执照”。尽管利用NHS数据记录来提升医疗服务的概念得到了广泛的支持,但该机构对数据保护问题的处置引起了公众的强烈抗议,最终摧毁了这项计划。

本文讲的是人工智能时代的伦理框架,英国国家医疗服务体系NHS就在其健康医疗大数据平台care.data停摆一事中,失去了这种“执照”。尽管利用NHS数据记录来提升医疗服务的概念得到了广泛的支持,但该机构对数据保护问题的处置引起了公众的强烈抗议,最终摧毁了这项计划。

  任何由数据驱动的自动决策,都是基于感知到的风险和责任水平来接受评估。例如,与自动驾驶汽车建议相比,亚马逊的购物建议得到的关注就要少得多。

  人工智能两种不同的发展前景:第一种被称为“泳池模型”,即人工智能的“池水”将溢满整个世界;第二种是他自己预测的“坑洞模型”,即人工智能的“水滴”会滴落在一切事物上,但只会注满特定的“坑洞”。

人工智能时代的伦理框架

  原文翻译:

  近段时间,数据伦理进入主流视野,我们看到媒体报道了有人在YouTube上宣传恐怖主义,大数据公司Cambridge Analytica利用Facebook帖子进行个性化竞选活动,以及打车应用Uber被无休止的丑闻吞没。

  我们所遵行的原则和法规已难以跟上技术的发展步伐。英国科技企业游说组织techUK召集了一个专家小组,讨论了如何确保行为符合规范。技术的最新进步正在不断延展关于知情同意和隐私的伦理观念,在这种情况下,我们需要一个新的框架来建立保护数据的标准。

  “我们需要可以提供确定性的标准来进行创新。”英国皇家统计学会(Royal Statistical Society)的执行理事赫丹·沙阿(HetanShah)说,“失去了公众信任,我们就可能失去‘营业执照’。”

  英国国家医疗服务体系NHS就在其健康医疗大数据平台care.data停摆一事中,失去了这种“执照”。尽管利用NHS数据记录来提升医疗服务的概念得到了广泛的支持,但该机构对数据保护问题的处置引起了公众的强烈抗议,最终摧毁了这项计划。

  公众对数据使用的态度

  近期关于数据使用的丑闻使得公众信任处于低水平。英国皇家学会(The Royal Society)最近展开了一项调查,询问公众对一家机构的信任度,以及如果要向该机构提交你的数据,此时你对它的信任度还有多高。

  “人们对第二个问题的信任度总是低于第一个。”沙阿说,“如果一家机构掌握着你的数据,你对它的信任度绝不会超过之前它没有掌握数据时的情况。信任出现了赤字,这是一个社会问题。”

  英国皇家学会的科学政策主任克莱尔·克雷格(Claire Craig)参与了一项调查,向拥有不同社会经济背景的英国公民,询问他们对于数据使用的看法。这项定性研究揭示,公众判断风险的标准始于对动机的感知。

  “主要讯息是情境的重要性。”克雷格说,“对于数据的某种应用,他们判断其风险和好处的基本标准始于对动机的感知。”

  “他们真的很关心为什么一项新技术会被引入,为什么会有新的应用,以及数据有哪些,目的是什么。他们也关心受益者,尤其是,如果他们看到它帮到了自己,帮到了像自己一样的人、像自己一样的群体以及更大范围的群体,他们的态度会更加支持。”

  从根本上说,消费者需要得到直接的好处。如果这件事帮到了人们,赚不赚钱就不是问题。

  任何由数据驱动的自动决策,都是基于感知到的风险和责任水平来接受评估。例如,与自动驾驶汽车建议相比,亚马逊的购物建议得到的关注就要少得多。

  人们支持那些能够实现更多人际交往的技术应用,比如,技术可以省下时间,让用户与亲友有更多的交流。

  对技术的过度依赖可能导致人们永久性地失去历代人所掌握的技能。

  技术需要被证明能够增强而不是削弱人类的能力。能够帮助专业人士省下时间从事更重要工作的技术,将得到广泛支持,但那些有可能取代人力的自动化技术将让人们心生警惕,这一点毫不意外。

  “人们很担心自己会被取代,对未来的工作也有很大的担忧。”克雷格说,“那些潜在的新工作,都在哪里呢?”

  随着技术让我们走上无个性化的必然道路,并挑战人之为人的本质和价值,这些担忧会发展成有关存在价值的恐惧。如果一台计算机能够比你更好地完成所有工作,如果一种算法有权力决定你的选择,那么自由在职业、教育和财政支持等领域遭到限制,似乎就是不可避免的后果。

  建立信任

  数据的有益使用得到的媒体曝光很少与其负面使用得到的曝光度相同。拉斯维加斯的赌场或许会用数据科学来估算你的消费门槛,并在你达到那个门槛时送上一杯酒,希望你能继续消费。但同时,我们也看到Streams这样的应用通过扫描患者数据来预测急性肾损伤风险,从而达到提升医疗效果和减轻护士日常工作负担的目的。

  我们可以通过宣传正面使用的事例来提升公众的信任,比如伦敦交通局使用开放数据预测公交车的到站时间,或是食品标准局通过社交网络来监测诺如病毒的传播。

  咨询公司FrontierEconomics在最近的一份报告中预测,到2035年时,人工智能将为英国经济增加8,140亿美元的产值,并让经济增长率从2.5%上升到3.9%

  “这些实实在在的数字令人印象深刻,但它们仍然未能充分反映由数据驱动的技术,比如数据分析和人工智能,将如何积极地改变经济和生活的方方面面,并真正帮助我们建设更加富裕、更加健康和更加清洁的社区。”微软英国的政府事务经理欧文·拉特(Owen Larter)说。

  美国医疗系统已经在应用能够进行模式识别的算法技术,来应对医院中可预防的错误,这些医疗事故是位居癌症和心脏病之后的第三大致死原因。由数据驱动的模式识别技术可以依照既有的最佳临床实践,为医生标记出反常现象,防止这些错误造成重大伤害。

  如今,英国背负着伦理责任,它要应对一系列挑战,比如老龄化人口的医疗费用问题,那意味着,今天的NHS到了明天将无法维持。

  techUK的副首席执行官安东尼·沃克(Antony Walker)认为,我们开发的数据宝藏能够拯救生命,但前提是它的潜力得到释放。

  “如果我们希望子孙后代能够拥有一套免费的医疗服务体系,我们对他们是有伦理上的责任的。”沃克说,“做成这件事的唯一办法是通过使用数据。”

  当涉及计算机代码时,追究责任可能成为一个难题,但让整个过程可审计,解释其中的工作原理,将帮助建立公众信任。克雷格认为,我们还需要对公众担心的事情做出回应。

  “透明度是必要的,但绝对说不上什么效率。”他说,“知道发生了什么事,这只是起点。”

  问责、职责和责任是一个复杂的三角。最后一个会真正对公司造成损害,也是违规需要得到纠正的地方。

  除了上述关于隐私、治理和知情同意的问题,在数据公平和偏见方面,公众也存在着持续的担忧。与人的意见相比,算法通常被赋予了更多的信任,尽管算法也是人类情感和偏见的产物。

  数据科学仍然是一门相对较新的学科,因此,科学家需要在数据伦理和标准方面,接受全面的训练。他们设计的算法造成的结果应该接受审计,以确保透明度和安全性。

  “我们很难窥视算法的黑箱。”沙阿说。

  他希望组建一个独立的数据伦理委员会,而且,相比建立新的监管机构,他更愿意赋予现有监管机构额外的权力。

  迈向未来

  牛津大学哲学和信息伦理学教授卢西亚诺·弗洛里迪(Luciano Floridi)一直在研究数据未来的发展,以及未来几年产生的伦理影响。

  他描述了人工智能两种不同的发展前景:第一种被称为“泳池模型”,即人工智能的“池水”将溢满整个世界;第二种是他自己预测的“坑洞模型”,即人工智能的“水滴”会滴落在一切事物上,但只会注满特定的“坑洞”。

  “就连接这些坑洞来说,人工智能不会做所有的工作,那将由人类来完成。”弗洛里迪说,“而且,我们将如何充当人工智能应用与其他人工智能应用,或是与其他需要连接的系统之间的接口,在这方面,我们需要搞清楚的伦理问题还有很多。如何连接这一切,是完全未知的领域。”

  新技术总是会为犯罪活动提供新的机会,而私人企业、公共机构和执法部门的追赶步伐可能非常迟缓。在欧洲刑警组织2016年的《互联网有组织犯罪威胁评估报告》中,有一个章节专门讨论了现有的各种网络犯罪行为,但几乎没有提到人工智能。

  “很多人都在谈论利用机器学习和人工智能来打击有组织犯罪,但有人在谈论有组织犯罪会怎样使用相同的技术吗?”弗洛里迪问道,“如果你在操作系统中发现了某种漏洞,你能想象有人利用人工智能系统对这一漏洞进行攻击后,事情会演变成什么样吗?据我所知,只有汽车行业的人在谈论这件事。”

  人们看到了算法在提升计算机安全性方面的潜力,但它同样有能力去破坏这种安全性。当自动化技术把这些算法安装到相同的系统上时,一旦黑客发动攻击,他们将不再需要逐一破解每辆汽车上的电脑。

  不过,我们在私人领域看到了一些积极的发展态势。企业越来越把数据伦理视为一笔珍贵的资产,尤其是在它们从初创公司成长为大型企业之后。

  技术可以改变伦理,比如避孕药的出现,它在公众掀起性革命之前,就引发了这样一场革命。如果要让数据充分发挥它所具有的变革性潜力,就必须建立一套伦理规范,同时还要搭建一个伦理框架来提供保障。新的制度能否落实到位,取决于政府和行业。

作者: 何无鱼

来源:IT168

原文标题:人工智能时代的伦理框架

相关文章
|
2天前
|
人工智能 自动驾驶 安全
人工智能的伦理困境与未来之路
在人工智能技术飞速发展的今天,我们不得不面对一个严峻的问题:AI的伦理困境。本文将从AI技术的发展趋势出发,探讨其带来的伦理问题,并提出相应的解决策略。让我们一起思考如何在享受AI带来的便利的同时,确保人类的价值和尊严不被侵犯。
|
2天前
|
人工智能 自动驾驶 安全
人工智能浪潮下的伦理困境与未来展望
在AI技术飞速发展的今天,我们站在了一个新的历史节点上。本文将探讨人工智能带来的伦理挑战,并展望未来可能的发展路径。我们将从AI技术的本质出发,分析其对社会、工作和人际关系的影响,进而深入讨论如何平衡技术进步与人类价值的关系,最后提出对未来AI发展的展望和建议。
12 2
|
4天前
|
存储 人工智能 算法
人工智能伦理与治理:在技术进步中寻求平衡
【9月更文挑战第4天】人工智能伦理与治理是一个复杂而重要的议题。在推动AI技术进步的同时,我们必须正视其带来的伦理与治理挑战,并寻求在技术进步中寻求平衡的策略。通过制定伦理准则与标准、加强法律与政策监管、提升算法透明度与可解释性、加强公众教育与参与以及推动国际合作与交流等措施,我们可以构建完善的伦理框架和治理体系,确保AI技术的发展和应用符合道德和社会价值观。
|
5天前
|
机器学习/深度学习 人工智能 自动驾驶
探索人工智能的伦理边界
【9月更文挑战第2天】随着人工智能(AI)技术的迅猛发展,它已经渗透到我们生活的方方面面。然而,AI技术的应用并非没有争议。从数据隐私到决策透明度,从就业影响到社会分层,AI技术引发了一系列深刻的伦理问题。本文将探讨AI技术在现代社会中的应用,以及由此产生的伦理挑战。我们将通过分析具体案例,深入理解AI技术的双刃剑特性,并思考如何在享受其便利的同时,避免潜在的负面影响。
|
11天前
|
机器学习/深度学习 人工智能 算法
人工智能浪潮下的伦理困境:我们如何面对?
在人工智能技术日新月异的今天,其带来的便捷与进步令人赞叹。然而,随之而来的伦理问题也日益凸显,从隐私泄露到决策偏差,从失业潮到人机关系重构,AI技术背后的伦理挑战正逐步走进公众视野。本文将探讨人工智能发展中的主要伦理问题,并尝试提出一些可能的解决方案,以期在享受科技成果的同时,也能对这些伦理问题保持警觉和反思。
|
12天前
|
人工智能 自动驾驶 安全
探索人工智能的伦理边界:我们如何与AI共存?
【8月更文挑战第27天】在这篇文章中,我们将深入探讨人工智能(AI)技术背后的伦理问题。随着AI技术的迅速发展,它已经在各个领域产生了深远的影响,从自动驾驶汽车到医疗诊断,再到虚拟助手。然而,这些进步也引发了关于隐私、安全性和责任等一系列伦理问题。本文将通过分析AI技术的实际应用案例,探讨如何在保障人权和尊重个人隐私的同时,推动AI技术的发展和应用。我们将提出一些指导原则,以帮助决策者、开发者和用户更好地理解和应对AI技术带来的伦理挑战。
|
2天前
|
机器学习/深度学习 人工智能 自动驾驶
人工智能的伦理困境:我们准备好面对未来了吗?
在探索AI技术飞速发展的同时,我们往往忽视了伴随而来的伦理问题。本文旨在揭示AI发展中的伦理挑战,并提出相应的思考和对策,以期为构建更加公正和可持续的AI未来提供参考。
6 0
|
16天前
|
机器学习/深度学习 人工智能 算法
人工智能的伦理困境:机器决策与人类价值观的碰撞
【8月更文挑战第23天】在人工智能(AI)技术飞速发展的时代,机器学习算法已渗透进我们生活的方方面面,从日常消费推荐到医疗诊断,再到司法判决。然而,随着AI决策能力的增强,一系列伦理问题也随之浮现。本文将探讨AI决策背后的伦理挑战,包括数据偏见、隐私保护、责任归属以及自主性与控制的问题,并思考如何在技术进步的同时维护人类的价值观和伦理标准。
|
16天前
|
机器学习/深度学习 人工智能 算法
人工智能浪潮下的道德困境与伦理挑战
【8月更文挑战第23天】在人工智能技术日新月异的今天,我们正面临一个前所未有的道德和伦理难题。本文将探讨AI技术带来的正面影响与潜在风险,并分析如何在保障技术进步的同时,维护人类伦理的底线。我们将从AI技术的本质出发,逐步深入到它对社会、工作、隐私等方面的深远影响,最后讨论如何在全球化背景下建立一套行之有效的伦理框架。文章旨在启发读者对AI时代的深层次思考,鼓励大家成为希望在世界上看到的改变。
|
16天前
|
人工智能 算法 数据处理
探索人工智能的伦理困境与社会责任
【8月更文挑战第23天】在人工智能技术飞速发展的当下,我们不仅见证了它在各个领域带来的革命性变化,也面临着由此引发的深刻伦理与社会问题。本文将深入探讨人工智能发展中的伦理挑战、社会责任以及如何通过教育与政策引导构建一个更加公正、可持续的未来。