想骗过人脸识别?一块钱就够了(附送几组骗AI的方法+论文)

简介:
本文来自AI新媒体量子位(QbitAI)

0?wx_fmt=gif&wxfrom=5&wx_lazy=1


人脸识别越来越常见,今年春运已经能刷脸进站,iPhone的相册就能用人脸分类照片,社交网站上能根据人脸标记照片。然而如同央视315提醒的那样,这项技术距离无懈可击还有一段距离。

比如说,一副成本1块钱的眼镜,就能骗过人脸识别的AI。

一个能够愚弄人脸识别AI的眼镜

来自卡内基梅隆大学(CMU)的研究人员表示,佩戴专门设计过的眼镜架,可以愚弄最先进的面部识别软件。一副眼镜,不单可以让佩戴者消失在人工智能识别系统之中,而且还能让AI把佩戴者误以为是别人。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

一副眼镜能有如此奇效,正是利用了机器理解人脸的漏洞。面部识别软件通常基于深度学习系统,通过大量的数据训练来寻找模式。

与人类对人脸的理解相比,机器对人脸的识别发生在抽象层面。电脑不是用人类的方式认脸,只是在像素中寻找模式。如果你知道这些机器在寻找哪种模式,就能轻易的愚弄这些人工智能系统,这正是CMU研究员们所做的事情。

首先,他们找到了与特定面孔相关的图案,然后把这些图案打印到一副宽边眼镜上。然后在测试中,机器对戴上眼镜的研究人员“视若无睹”。不仅如此,眼镜还能用来冒充别人。

一位41岁的白人男性研究员,仅凭一副眼镜,就能冒充女演员……准确率87.87%。

当然这个研究也有明显的局限。比如不同的距离、不同的照明条件下,效果会有差异。最重要的是,实验室的测试并不代表在现实中总是可行。

不过无论如何,如果你想保护隐私,戴这种眼镜,总比画上一个CV Dazzle妆要省事儿。什么是CV Dazzle?贴几张图给大家看看……

640?wx_fmt=png&wxfrom=5&wx_lazy=1

640?wx_fmt=png&wxfrom=5&wx_lazy=1

机器会认错的,不只是人脸

显然,在认人这件事上,有很多种方法可以骗过机器。那么,机器在识别其他物体的时候,还会被骗吗?

也会。比如说:

640?wx_fmt=png&wxfrom=5&wx_lazy=1

这是什么?

作为人类,我们只看到不同颜色相间的波纹。

但是来自Google、Facebook、Mobileye的图片软件们不约而同地说:这是海星啊!

“这种感觉就像各家神经网络坐在一起吐槽:长得多标准的一个海星啊,这些愚蠢的人类怎么就看不出来呢?”论文《Deep Neural Networks are Easily Fooled》的作者之一、怀俄明大学的助理教授Jeff Clune说。

这篇论文发表在2015年的计算机视觉顶级学术会议CVPR上,还获得了Community Top Paper奖。

Clune在论文中提到,很多在人类看来毫无意义的图片,输入到神经网络中,会被分类为某种物体。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

比如说,上图左侧的8张图片,在人类看来都是电视机雪花屏的图案,但是在神经网络看来,这里面包含了燕雀、犰狳、小熊猫、猎豹甚至菠萝蜜……

你说是熊猫?机器说是长臂猿

人类看起来毫无异样的图片,到了机器那里也可能会被错认。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

比如说在人类眼中,上图左右两边都是熊猫;但计算机就会认为,左边的(可能)是熊猫,而右边的是长臂猿。

这张图片,来自Ian Goodfellow发表在ICLR 2015的论文Explaining and Harnessing Adversarial Examples。

其实早在2013年和2014年,科研人员们就在讨论这类问题。Goodfellow在2014年曾经发表了一篇关于反例攻击(Adversarial Examples)的论文。去年10月一篇题为《Universal Adversarial Perturbations》则提出了一种通用的“扰动”方式,可以导致各种神经网络将图片误分类。

Goodfellow在Open AI工作期间,还发文介绍在反例攻击和防御策略,量子位曾经进行了编译。

AI的判定边界

现在,人类的科学家还没有完全搞清楚,这些骗过机器的方式为什么会有效,在什么情况下会失败。

一种常见的解释是,它们利用了AI系统中的“判定边界”。

所谓“判定边界”,是指机器区分两类物体所用的一组隐形的规则。比如说我们设计了一个非常简单的分类器,用来区分狮子和猎豹,经过一段时间的训练之后,机器会创造出一个X-Y平面,右上方是猎豹、左下方是狮子,而狮子和猎豹之间的分界线,就是“判定边界”。

Clune认为,会出现上面这些“骗过图像识别系统”的方法,是因为判定边界过于武断。“你对神经网络所做的,就是训练他们在数据的集群之间划定界限,而不是对什么是猎豹、什么是狮子进行深入的建模。”Clune说,他认为解决这个问题,需要让图像分类器能够得出“我不知道这张图片是什么”的结果,而不是强行将它归为某一类。

我知道你们想看论文

我们整理了文章中提到的论文,在量子位公众号(QbitAI)对话界面回复“反例攻击”查看。

本文作者:舒石 李林
原文发布时间:2017-04-13
相关文章
|
27天前
|
人工智能 开发者
Nature曝惊人内幕:论文被天价卖出喂AI!出版商狂赚上亿,作者0收入
【9月更文挑战第8天】《自然》杂志近日揭露,学术出版商如泰勒·弗朗西斯与微软签订千万美元合约,及威利获高额报酬,将论文提供给科技巨头训练AI模型,引发学界对版权与收益分配的热议。此现象反映了AI对高质量数据的渴求,但亦使研究人员担忧成果被无偿商用,且可能影响学术独立性。尽管AI训练使用学术资源能提升模型科学性,助力科研进展,但如何保障作者权益及维持学术纯粹性仍是亟待解决的问题。https://www.nature.com/articles/d41586-024-02599-9
33 4
|
5月前
|
前端开发 计算机视觉
人脸识别平台批量导入绑定设备的一种方法
人脸识别平台批量导入绑定设备的一种方法
50 0
|
3月前
|
JSON 人工智能 API
App Inventor 2 人脸识别App开发 - 第三方API接入的通用方法
**App 效果图**:展示人脸识别功能,可识别性别和年龄。 **工作原理**:调用第三方人脸识别API,上传图片并接收返回的JSON数据,AppInventor2解析结果显示。
72 0
|
5月前
|
机器学习/深度学习 人工智能 数据挖掘
ICLR 49.9%论文疑有AI审稿
【5月更文挑战第20天】ICLR会议上一篇研究引发关注,推测近50%的论文可能由AI进行审稿,挑战传统审稿流程。研究者运用机器学习分析历史审稿数据,发现可能的AI审稿模式。该研究提出AI审稿可减轻审稿人负担,提高效率,但也面临证据不足、理解复杂学术概念限制及审稿行为多样性等问题。学术界需谨慎评估AI在审稿中的角色,以确保质量和公正性。[论文链接](https://arxiv.org/abs/2405.02150)
77 1
|
5月前
|
人工智能
AI大咖说-如何评价论文的创新性
《AI大咖说》探讨论文创新性,强调新意、有效性和领域研究问题的重要性。创新点在于用新颖方法有效解决研究问题。评价公式:价值=问题大小*有效性*新意度。该观点源于《跟李沐学AI》视频,提供1-100分评分标准,助力评估论文价值。5月更文挑战第14天
61 3
|
5月前
|
机器学习/深度学习 人工智能
论文介绍:AI击败最先进全球洪水预警系统,提前7天预测河流洪水
【5月更文挑战第4天】研究人员开发的AI模型(基于LSTM网络)成功击败全球最先进的洪水预警系统,能在未设测站流域提前7天预测洪水,显著提升预警时间,降低灾害影响。该模型使用公开数据集,减少了对长期观测数据的依赖,降低了预警系统的成本,有望帮助资源有限的地区。然而,模型的性能可能受特定流域条件影响,泛化能力和预测解释性仍有待改进。[论文链接](https://www.nature.com/articles/s41586-024-07145-1)
125 11
|
5月前
|
数据采集 人工智能 数据挖掘
【AI大模型应用开发】【附】常用Prompt记录 - 论文全文写作
【AI大模型应用开发】【附】常用Prompt记录 - 论文全文写作
170 0
【AI大模型应用开发】【附】常用Prompt记录 - 论文全文写作
|
5月前
|
机器学习/深度学习 人工智能
ChatGPT检测器——以前所未有的准确性捕捉AI生成的论文
【2月更文挑战第25天】ChatGPT检测器——以前所未有的准确性捕捉AI生成的论文
88 7
ChatGPT检测器——以前所未有的准确性捕捉AI生成的论文
|
5月前
|
机器学习/深度学习 人工智能 算法
AI大咖说-如何有效的读论文
# AI大咖李沐教你高效读论文 李沐,亚马逊资深首席科学家,MXNet框架作者,推荐其在B站的“跟李沐学AI”。他建议读论文分三步:粗读(标题、摘要、结论)、快速浏览(整体理解)和精读(深入细节)。通过这三遍阅读,判断论文是否相关,理解解决问题的方法和实验。5月更文挑战第13天
64 0
|
5月前
|
人工智能
【SCI论文】“学术丑闻揭露:当AI写作遭遇学术审稿,ChatGPT意外成为论文共作者!“
最近,一篇发表在《Surfaces and Interfaces》的论文引起了广泛关注,因为其中意外包含了ChatGPT的提示语,暴露出学术审稿过程中的疏忽。这篇论文讨论了铜基金属-有机框架-芳香族纤维素分隔器对锂金属阳极电池的影响,但却出现了不该出现的ChatGPT对话内容。这一事件不仅令人哭笑不得,还引发了对学术审核严谨性的质疑。它反映了当前学术界可能过度依赖AI写作工具,忽略了基本的检查和编辑步骤。这一事件提醒学术界必须加强审查机制和自律,确保论文质量,防止类似尴尬情况的再次发生。
194 4
【SCI论文】“学术丑闻揭露:当AI写作遭遇学术审稿,ChatGPT意外成为论文共作者!“

热门文章

最新文章

下一篇
无影云桌面