全球首例!移动材料上实现动态对抗,这件T恤让你在AI眼皮下隐身

简介: 全球首例!移动材料上实现动态对抗,这件T恤让你在AI眼皮下隐身

当迎面走来一位穿着白T恤的男性和一位穿着黑T恤的女性时,如果我们从AI摄像头中观察,会惊讶地发现画面中只有女性的身影。

别担心,这并不是内部程序的性别歧视,问题出在衣服上。

当仔细观察这位男性穿的白T,第一印象是怪丑怪丑的,再看看,T恤上印有千变万化的色块,不过和普通T恤也没什么大的差别。

这就是你轻敌的地方了。

别看这件T恤设计得不怎么入眼,来头却不小,这是由IBM、MIT和东北大学的研究人员共同设计的,当你穿上这件T恤的时候,在AI摄像头看来,你就能神奇地和背景融为一体,就这么消失在了摄像头中。

破案了!原来《猫和老鼠》中,Jerry的那瓶隐身墨水就是被他们“偷”走的。

由于新冠疫情,全球各地都加大了AI摄像头的部署力度,人们的日常生活处于无时无刻被监视和追踪的状态,在这样的大趋势下,如何更好地保护自己的面部信息,这件T恤就是答案,毕竟,当你整个身体都“消失”在摄像头中,又何来面部信息一说呢?

东北大学电气与计算机工程助理教授Shelley Lin表示:“深层神经网络非常强大,但也十分脆弱。当穿上T恤,深层神经网络很可能无法在图像中识别你。”

说了这么多,来看看这件T恤的“卖家秀”:

emmm文摘菌想说,道理我都懂,但是能把T恤设计得稍微再好看一些吗?

首个实现动态对抗攻击的竟然是这件T恤?!

说到对抗模型的建立,很多人可能对此不屑一顾,这不很早就有了吗?

那我们就先来看看目前的部分战绩:
2016年,美国卡内基梅隆大学和北卡罗来纳州教堂山分校的研究人员发明了一种眼镜,该眼镜能“迷惑”住面部识别技术,从而将佩戴者分类错误;
2017年10月,加利福尼亚大学伯克利分校计算机科学博士生Dan Hendrycks就“成功”地让AI系统将“停止”路标识别为了“限速45”路标。

的确,这些对抗模型效果很好,近两年的发展似乎也还挺顺利。

但是,文摘菌要提醒的是,大家可能还混淆了一个概念,上述两例都是在静态材料中生成的对抗性攻击,如果想要在视频上进行动态对抗,困难指数就得加倍。比如,在设计这件T恤的时候,研究人员就必须考虑,T恤在穿戴者移动时会起皱和折痕,否则就会直接影响到对抗效果。

卡利亚里大学助理教授、第一个对抗性示例的创建者Battista Biggio说:“对于物理攻击,真正的挑战是在整个视频持续时间内保持未被发现的状态。”Biggio开发的首个对抗性系统成功地欺骗了垃圾邮件检测程序,“当检测在每一帧中进行时,要始终保持未被检测到要困难得多”。

为了实现动态对抗,研究人员使用了Lin所说的“变压器(transformer)”,这是一种测量T恤运动方式随后将其映射到设计中的方法。

通过专门研究两个通常用于训练目的的对象识别神经网络YOLOv2和Faster R-CNN,团队发现,增加像素噪声会使AI混淆身体区域,从而使穿上T恤的人在AI摄像头下“隐身”。

随后,研究人员记录了一个穿着棋盘格图案T恤的人走路,跟踪棋盘上每个方块的角的变化,从而准确地绘制出了人移动时T恤的起皱规律。当整个模式建立起来之后,针对YOLOv2的对抗能力从27%提高到了63%,针对Faster R-CNN的对抗能力从11%提高到52%。

基于此,全球首个在移动材料上实现动态对抗的设计就创建成功了!

人们能借此重获隐私主权吗?

这种对抗攻击的原理,其实和深度神经网络的训练是同宗同源的。

我们都知道,深度神经网络通常用于对图像、声音或者其他输入进行识别和分类,要实现精确识别,研究人员就要用上百万的示例训练这些算法,直到系统最终能辨别个人的相貌和声音等。

同时,反过来说,既然我们知道了如何训练特定网络,那我们也就知道了如何反向训练特性网络,以生成相应的对抗式识别模型,比如让系统将熊猫识别为长臂猿。

当我们深入到识别过程中,神经网络会在需要识别的人物或事物周围绘制一个“边界框”,随后再为该对象分配标签。也就是说,只要能找到神经网络的边界点——在AI看来某个物体是否为该物体的阈值,就足以创建可混淆AI分类和标签系统的设计。

之前,Lin和同事在研究一种用深层神经网络训练的物体检测器,利用这种检测器能快速并准确地标记视频中的“人”、“马”或“伞”等,但他们想借此发现在深度神经网络中存在的漏洞,“未来,希望我们能够解决这些问题,从而不会欺骗深度学习系统”。

这件T恤就是成果之一。

对于这件能保护人们信息安全的T恤,文摘菌已经疯狂想要入手了。但Lin对此表示,在现实中不太可能看到这些T恤,她解释道:“我们仍然很难使它在现实世界中正常使用,前提条件是,我们必须知道检测算法的所有细节。因此这件T恤并不完美,这里那里可能都存在问题。”

在总结AI屡屡失利的原因时,谷歌AI工程师François Chollet表示,“深度神经网络十分脆弱,这无法从根本上解决”。

不过,克服这些缺陷的方法也还是存在的,研究人员需要额外增强模式匹配,例如,让AI自己探索世界,编写自己的代码并保留记忆。一些专家认为,这类系统将成为未来十年AI研究不可忽视的一部分。

这件T恤的开发也标志着AI识别面临着越来越强的危机感,人们或许能在信息隐私方面逐渐重新获得主权。

相关文章
|
人工智能 编解码 并行计算
Ai实现FPS游戏自动瞄准 yolov5fps自瞄
Ai实现FPS游戏自动瞄准 yolov5fps自瞄
8528 0
|
机器学习/深度学习 存储 人工智能
5秒实现AI语音克隆(Python)
推荐一个有趣的AI黑科技--MockingBird,该项目集成了Python开发,语音提取、录制、调试、训练一体化GUI操作,号称只需要你的 5 秒钟的声音,就能实时克隆出你的任意声音
|
6月前
|
存储 人工智能 安全
|
12月前
|
人工智能 程序员 API
为了了解国外AI最新动态,分享我经常逛的6 个 YouTube AI频道
AI 正在迅速发展,每周都会有一篇关于该领域新发展的新论文,一种可以提高您工作效率的 AI 工具,或者一个改变一切的公告。 这就是为什么在本文中,我想与您分享最好的 YouTube 频道,以便及时了解 AI 的最新动态。这些 YouTube 用户精心挑选了最好的 AI 新闻,并创建了有关如何充分利用 ChatGPT 等 AI 工具的详细教程。
347 0
|
11月前
|
机器学习/深度学习 人工智能 并行计算
声音好听,颜值能打,基于PaddleGAN给人工智能AI语音模型配上动态画面(Python3.10)
PaddlePaddle是百度开源的深度学习框架,其功能包罗万象,总计覆盖文本、图像、视频三大领域40个模型,可谓是在深度学习领域无所不窥。 PaddleGAN视觉效果模型中一个子模块Wav2lip是对开源库Wav2lip的二次封装和优化,它实现了人物口型与输入的歌词语音同步,说白了就是能让静态图的唇部动起来,让人物看起来仿佛正在唱歌。 除此以外,Wav2lip还可以直接将动态的视频,进行唇形替换,输出与目标语音相匹配的视频,如此一来,我们就可以通过AI直接定制属于自己的口播形象了。
声音好听,颜值能打,基于PaddleGAN给人工智能AI语音模型配上动态画面(Python3.10)
|
11月前
|
机器学习/深度学习 数据采集 人工智能
5G网络怎样绿色减排?看联通巧用AI+CPU调频方案实现动态节能
5G网络怎样绿色减排?看联通巧用AI+CPU调频方案实现动态节能
|
11月前
|
存储 人工智能 编解码
CVPR‘2023 | 港科大 & 腾讯 AI Lab & 港大联合出品:有趣的动态 3D 场景重建
CVPR‘2023 | 港科大 & 腾讯 AI Lab & 港大联合出品:有趣的动态 3D 场景重建
180 0
|
机器学习/深度学习 人工智能 算法
基于AidLux&AI中台,轻松落地动态人脸识别AI应用
该项目来自阿加犀公司举办的AidLux动态人脸识别AI实战训练营,由PauIX老师主讲,课程内容涉及人脸识别原理及Retinaface实战、动态人脸识别整体流程实战、AI视觉软件中台人脸识别实战等。
136 0
基于AidLux&AI中台,轻松落地动态人脸识别AI应用
|
人工智能 文字识别 Java
身份证图片识别demo通过百度AI开放平台实现
身份证图片识别demo通过百度AI开放平台实现
456 0
身份证图片识别demo通过百度AI开放平台实现
|
机器学习/深度学习 人工智能 并行计算
Hinton等谈深度学习十年;PyTorch落地Linux基金会的影响;机器学习界的“GitHub”|AI系统前沿动态
Hinton等谈深度学习十年;PyTorch落地Linux基金会的影响;机器学习界的“GitHub”|AI系统前沿动态
148 0
Hinton等谈深度学习十年;PyTorch落地Linux基金会的影响;机器学习界的“GitHub”|AI系统前沿动态