在人工智能(AI)让人们生活越来越便捷和舒适的同时,相关的隐藏风险也在不断暴露。一方面,数据共享和开放可以帮助提高人工智能的发展速度和质量,但另一方面,过度共享也会导致隐私泄露和数据滥用的风险。当地时间1月29日,意大利数据保护局表示,人工智能(AI)研究公司OpenAI的聊天机器人ChatGPT(Chat Generative Pre-trained Transformer)和其用于收集用户数据的技术违反了该国的隐私法。而本月早些时候,美国最具影响力的媒体之一《纽约时报》向OpenAI及其投资人微软公司提起侵犯版权诉讼,指控二者未经许可使用其数百万篇文章以训练人工智能模型,而这些聊天机器人现在与该新闻机构形成竞争,成为可靠的信息来源。
ChatGPT是由美国OpenAI公司于2022年11月开发并推出的一款基于对话的人工智能聊天机器人模型。该模型是一种基于Transformer的预训练语言模型,能够自主学习和理解大规模自然语言数据,并根据用户的聊天对话内容,综合模型中存在的现有数据生成符合上下文和用户意图的对话回复。由于ChatGPT不仅可以通过对数据的学习来提炼信息、预测趋势,还可以生成不同于学习样本的新内容,在随后短短两个月内,其迅速吸引了高达100亿用户且该数据还在不断增长。
去年3月底,意大利数据保护局以涉嫌违反数据收集规则为由,对OpenAI展开调查,并宣布禁止使用ChatGPT,且暂时限制OpenAI处理意大利用户数据。由此,意大利成为第一个限制ChatGPT的西欧国家。在OpenAI采取措施回应了监管机构的要求后,ChatGPT于去年4月底在意大利恢复上线。但意大利数据保护局当时表示,将会继续就此进行调查。去年4月,欧洲数据保护委员会(EDPB)也宣布,成立一个ChatGPT特别工作组,帮助各国应对ChatGPT。
意大利数据保护局表示,调查的结果表明,OpenAI可能存在一项或多项违反欧盟法规的行为;但该监管机构并没有提供进一步细节。意大利数据保护局还表示,其调查会考虑欧洲特别工作组所做的工作。面对意大利数据保护局的调查结果,OpenAI将有30天时间来做出回应。有分析称,去年勒令ChatGPT下线时,意大利数据保护局引用了《通用数据保护条例》(GDPR)——该条例是1995年《数据保护指令》的修订、拓宽和升级,于2018年5月生效。自该条例生效以来,意大利数据保护局是欧盟境内最积极主动的机构之一。据此条例,任何被发现违反该法规的公司都将面临最高可达全球营业额4%的罚款。尽管OpenAI未曾公开披露过其营收状况,但根据媒体此前报道,OpenAI去年一整年的营收达到了16亿美元。若按照这一数字计算,在最坏的情况下,OpenAI可能会面临6400万美元的罚款。
事实上,据韩国媒体报道,三星电子去年在引入ChatGPT不到20天,便曝出机密资料外泄:包括两起“设备信息泄露”和一起“会议内容泄露”;半导体设备测量资料、产品良率等内容或已被存入ChatGPT学习资料库中。这三起泄密事件均发生在三星电子半导体的装置解决方案部门。而最初三星也因担忧内部机密外泄而禁用ChatGPT,不过基于半导体是“生成式AI”的建构基础,三星随后恢复了一些部门使用ChatGPT,但装置体验部门禁用ChatGPT。
这些并非是近年来人工智能泄露数据和隐私的仅有案例。2020年,成立于 2016 年面部识别应用服务公司 Clearview AI证实,公司所有的客户列表、账户数量以及客户进行的相关搜索数据遭遇了未经授权的入侵。Clearview AI 的面部识别应用客户包括了美国移民局、司法部、银行、FBI、ICE、梅西百货、沃尔玛、NBA、阿拉伯联合酋长国的主权财富基金等 2228 多家机构和公司;此外还有更多的私人公司正在通过 30 天免费试用来测试该技术。随后,Clearview AI快速被谷歌、微软、油管、推特等互联网巨头的联合封杀抵制。
这些案例都凸显出在人工智能对数据日益增长的依赖性的背后,其包含的巨大的数据泄露的可能性和风险。目前,各国都在积极探索对于人工智能模型的监管规则。值得一提的是,去年12月,欧洲议会、欧盟成员国和欧盟委员会三方,终于在漫长谈判后,就《人工智能法案》达成协议。这一法案将成为全球首部人工智能领域的全面监管法规。已达成协议的《人工智能法案》草案规定,严格禁止“对人类安全造成不可接受风险的人工智能系统”,其中包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。相关规定还包括,人工智能公司要对其算法进行人为控制,提供技术文件,并为“高风险”应用建立风险管理系统。每个欧盟成员国都将设立一个监督机构,确保这些规则得到遵守。
本篇文章收录于 AI 资讯专栏,内容来自与网络!
来源:金融时报客户端