智造观点
随着技术的进步,AI变得更加的自主和复杂,而我们也越来越难以理解它到底是如何工作的。实际上,大多数人对人工智能的工作方式知之甚少。或者就此而言,从日常金融交易到确定信用评级,人工智能的应用十分广泛,但人们却不了解它的原理。
比如,在股票市场上,华尔街只有少量的交易是由人类完成的,绝大多数交易的本质其实是算法。这是一个预先被编程的系统,如果大豆或石油的价格下降,它就会马上自动“反应”出各种额外的措施来面对这种情况。当然这也是人工智能算法的意义:一切都可以很快的运行,比人脑计算要快几千秒。但问题是,在人工智能成为一种普及的“力量”之前,还有很长的路要走,而现在我们应该相信它吗?或者说,当AI出现问题时,谁应该为它负责呢?
我们总说,人工智能已经进入到了生活中的方方面面,但人工智能在社会中究竟有多普及呢?据《福布斯》报道,Statista的一项调查结果显示,截至2017年,全球只有5%的企业在其工作流程和产品中广泛使用人工智能,32%的企业尚未采用人工智能,22%的企业没有计划使用人工智能。
这组数据可能与我们想象中的普及相去甚远,事实上,现在对人工智能来说,最大的推动力来自AI初创公司以及供应商。按照该行业很多专家的说法,AI仍主要处于炒作的阶段。比如科技公司Tech Emergence创始人、国外著名科技产业作家Daniel Faggella曾表示,“人工智能技术的供应商经常会夸大其词,让他们的技术或产品听起来比实际上更有能力,但有关人工智能如何应用于商业领域的深入讨论却很少。”
Faggella指出的更令人恐惧的事情是,在人工智能领域销售营销解决方案、医疗保健解决方案以及金融解决方案的企业现在只是在测试这项技术。实际上,有数百家公司正在销售人工智能软件和技术,但只有三分之一的公司具备发展人工智能技术所需的技能。
科技巨头首当其冲,AI有很大的BUG
当然,像亚马逊这样的科技巨头,其内部几乎所有人类活动都是由计算机程序所引导的。他们不仅监督员工的行为,还会被用于潜在员工的选择。此前,小智君曾报道过,亚马逊放弃了该公司的一项AI招聘工具,原因在于选择结果对女性存在歧视。
亚马逊这一决定是广受支持的,但该事件也表明了机器学习中存在很大的弊端。虽然机器学习是目前应用最广泛的人工智能技术,但无论这些程序学习速度多块,它们都只能从人类所提供的数据中进行学习,如果数据中存在歧视模式,那么它们的结果也无法逃脱这个命运。
亚马逊的AI招聘工具就是这样的,由于培训这个系统的数据,多是过去该公司雇佣的男性求职者的记录,导致了这个工具学会了歧视女性的申请。而另一个人工智能被广泛应用的更加不公平的例子是,让AI决定囚犯是否应该获得假释。这也是一个存在很大争议的应用,因为从人自身的角度出发,也很难针对这个问题做出一个准确的决定。
不过值得庆幸的是,在亚马逊的案例中,这种不公平没有继续蔓延下去,因为该公司意识到了自己在这起事件中应该扮演的角色以及承担的责任,并且对此也做出了正确的决策。
然而,人工智能的问题远不止于此。目前,人工智能应用最广泛的产品大概就是个人数字助理了,比如苹果的Siri,亚马逊的Echo。在我们看来,这些数字助理只是为了方便我们的生活而出现的,像帮我们定闹钟、帮我们拨电话,等等。但实际上在某些坏人的眼中,它们可能是某些非法案件的帮凶。
早在2012年,美国佛罗里达州就曾发生过这样一件事:一名大学生曾向Siri求助,在哪里可以掩埋被他杀死的朋友的尸体。事情发生后,苹果不得不更改了Siri的算法,以使它在面对同样的问题时,不会给出具体答案。有报道指出,现在如果对Siri提出同样的问题,只能获得“这很有趣”的回答。
医疗领域AI应用多,出现问题谁该负责?
在上述的AI应用,有些人会觉得距离自己很遥远,那么在每个人都无法避免的医疗领域呢?在我们的生活中,人为导致的医疗事故实际上还是很普遍的。很多专家认为这是美国的第三大杀手,而在英国,多达六分之一的患者在国家服务中心就诊时出现了误诊现象。医疗领域人工智能的出现,其目的之一就是减轻误诊数量,并且在某些情况下,该技术已经接近甚至超过了人类医生的成功率。
听起来似乎很美好,给人类的生存带来了希望,但是大家似乎都没有想过,如果这项能力惊人的技术出现了失败,如果失败是由机器或算法造成的,那么这一结果应该谁负责呢?别以为这是一个无厘头的问题,在医学领域,明确道德责任和法律责任对建立患者的信任度来说至关重要。同时,在决定如何赔偿医疗事故受害者以及确保高质量的医疗服务方面,也扮演着不可或缺的角色。对此,迈阿密大学法学教授迈Michael Froomkin表示:“责任被认为是阻止人们做不该做的事情。”
“我们不能高喊硅谷在医疗保健方面取得了‘重大突破’的口号,”前NHS医生,现任AI政策研究员的Matthew Fenech补充道。“我们需要把患者和安全放在第一位。”目前,医学中使用的AI被称为“决策助手”,这意味着它们(至少在法律层面上)是为了补充而非取代专家的意见。
“在某种程度上,这是一种免疫策略,但实际上它表示的是我们期待医生们对决策提出质疑,”德保罗大学健康与知识产权法研究员Charlotte Tschider说。“这些设备现在还不能取代人类知识。”反过来,这意味着使用人工智能(通常是医生)的医疗服务提供者仍要对所有可能出现的问题负责,只有少数病例例外,毕竟从法律的角度来说,他们的期待是医生会权衡人工智能的结果和建议以及其他证据,如传统的诊断测试,病史,以及其他医生的咨询意见,对患者进行细致的检查。
AI也只是一个辅助工具。更简单的理解为,假设你是一名医生,在做手术时发现自己用的手术刀弯了,这时你不会不管不顾的进行手术,因为你知道自己要对此负责,从这个角度看,如果AI被用作决策支持,那么医生也要对此负相应的责任。
可能有的人会觉得,人工智能是如何做出决策的,目前还是一个未解之谜。所以这种不透明性本身就带来了很多问题。比如,我们如何确定人工智能的错误是不可避免的还是疏忽造成的?为什么在不了解其内部工作原理的时候,要让医生或医疗机构对此问题承担责任呢?
但反过来说,如果我们将人工智能系统本身作为一种负责任的法律人格,这就有点奇怪,因为这些机器人自己是没有银行账户或薪水收入的,所以对他们做出罚款没有任何意义,同样的,对一堆算法提出监禁判决也没有啥用。所以,针对这一问题,小智君(ID:Aiobservation)认为如果医疗设备制造商生产了有缺陷的产品或者没有充分警告用户风险的存在,那么在发生事故时,这些AI背后的公司有义务承担责任,而医生在使用过程中,没有尽到自己的监管义务的话,也要付出相应的代价。
不过,考虑机器学习当下的状态,不管是在哪个领域哪种情况下AI出现问题,追究其背后制造商的责任可能是有一定意义的,但在未来我们要做的是让AI本身为自己负责成为可能,就像现在的自动驾驶汽车意义,它要出现在公共道路上,就必须在机动车辆部门完成注册,如果出现事故太多次,那么其许可能就可能被收回,同样,未来或许有相似的规定出现,以便处理那些问题多多的算法。
原文发布时间为:2018-10-22
本文作者:灰灰