想骗过人脸识别?一块钱就够了(附送几组骗AI的方法+论文)-阿里云开发者社区

开发者社区> 量子位> 正文
登录阅读全文

想骗过人脸识别?一块钱就够了(附送几组骗AI的方法+论文)

简介:
本文来自AI新媒体量子位(QbitAI)

0?wx_fmt=gif&wxfrom=5&wx_lazy=1


人脸识别越来越常见,今年春运已经能刷脸进站,iPhone的相册就能用人脸分类照片,社交网站上能根据人脸标记照片。然而如同央视315提醒的那样,这项技术距离无懈可击还有一段距离。

比如说,一副成本1块钱的眼镜,就能骗过人脸识别的AI。

一个能够愚弄人脸识别AI的眼镜

来自卡内基梅隆大学(CMU)的研究人员表示,佩戴专门设计过的眼镜架,可以愚弄最先进的面部识别软件。一副眼镜,不单可以让佩戴者消失在人工智能识别系统之中,而且还能让AI把佩戴者误以为是别人。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

一副眼镜能有如此奇效,正是利用了机器理解人脸的漏洞。面部识别软件通常基于深度学习系统,通过大量的数据训练来寻找模式。

与人类对人脸的理解相比,机器对人脸的识别发生在抽象层面。电脑不是用人类的方式认脸,只是在像素中寻找模式。如果你知道这些机器在寻找哪种模式,就能轻易的愚弄这些人工智能系统,这正是CMU研究员们所做的事情。

首先,他们找到了与特定面孔相关的图案,然后把这些图案打印到一副宽边眼镜上。然后在测试中,机器对戴上眼镜的研究人员“视若无睹”。不仅如此,眼镜还能用来冒充别人。

一位41岁的白人男性研究员,仅凭一副眼镜,就能冒充女演员……准确率87.87%。

当然这个研究也有明显的局限。比如不同的距离、不同的照明条件下,效果会有差异。最重要的是,实验室的测试并不代表在现实中总是可行。

不过无论如何,如果你想保护隐私,戴这种眼镜,总比画上一个CV Dazzle妆要省事儿。什么是CV Dazzle?贴几张图给大家看看……

640?wx_fmt=png&wxfrom=5&wx_lazy=1

640?wx_fmt=png&wxfrom=5&wx_lazy=1

机器会认错的,不只是人脸

显然,在认人这件事上,有很多种方法可以骗过机器。那么,机器在识别其他物体的时候,还会被骗吗?

也会。比如说:

640?wx_fmt=png&wxfrom=5&wx_lazy=1

这是什么?

作为人类,我们只看到不同颜色相间的波纹。

但是来自Google、Facebook、Mobileye的图片软件们不约而同地说:这是海星啊!

“这种感觉就像各家神经网络坐在一起吐槽:长得多标准的一个海星啊,这些愚蠢的人类怎么就看不出来呢?”论文《Deep Neural Networks are Easily Fooled》的作者之一、怀俄明大学的助理教授Jeff Clune说。

这篇论文发表在2015年的计算机视觉顶级学术会议CVPR上,还获得了Community Top Paper奖。

Clune在论文中提到,很多在人类看来毫无意义的图片,输入到神经网络中,会被分类为某种物体。

640?wx_fmt=png&wxfrom=5&wx_lazy=1

比如说,上图左侧的8张图片,在人类看来都是电视机雪花屏的图案,但是在神经网络看来,这里面包含了燕雀、犰狳、小熊猫、猎豹甚至菠萝蜜……

你说是熊猫?机器说是长臂猿

人类看起来毫无异样的图片,到了机器那里也可能会被错认。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

比如说在人类眼中,上图左右两边都是熊猫;但计算机就会认为,左边的(可能)是熊猫,而右边的是长臂猿。

这张图片,来自Ian Goodfellow发表在ICLR 2015的论文Explaining and Harnessing Adversarial Examples。

其实早在2013年和2014年,科研人员们就在讨论这类问题。Goodfellow在2014年曾经发表了一篇关于反例攻击(Adversarial Examples)的论文。去年10月一篇题为《Universal Adversarial Perturbations》则提出了一种通用的“扰动”方式,可以导致各种神经网络将图片误分类。

Goodfellow在Open AI工作期间,还发文介绍在反例攻击和防御策略,量子位曾经进行了编译。

AI的判定边界

现在,人类的科学家还没有完全搞清楚,这些骗过机器的方式为什么会有效,在什么情况下会失败。

一种常见的解释是,它们利用了AI系统中的“判定边界”。

所谓“判定边界”,是指机器区分两类物体所用的一组隐形的规则。比如说我们设计了一个非常简单的分类器,用来区分狮子和猎豹,经过一段时间的训练之后,机器会创造出一个X-Y平面,右上方是猎豹、左下方是狮子,而狮子和猎豹之间的分界线,就是“判定边界”。

Clune认为,会出现上面这些“骗过图像识别系统”的方法,是因为判定边界过于武断。“你对神经网络所做的,就是训练他们在数据的集群之间划定界限,而不是对什么是猎豹、什么是狮子进行深入的建模。”Clune说,他认为解决这个问题,需要让图像分类器能够得出“我不知道这张图片是什么”的结果,而不是强行将它归为某一类。

我知道你们想看论文

我们整理了文章中提到的论文,在量子位公众号(QbitAI)对话界面回复“反例攻击”查看。

本文作者:舒石 李林
原文发布时间:2017-04-13

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享:
+ 订阅

官方博客
官网链接