让对方把头侧扭90°,这一动作可辨别Deepfake伪造人脸

简介: 让对方把头侧扭90°,这一动作可辨别Deepfake伪造人脸
看似「天衣无缝」的伪造技术,也是有漏洞的。


视频伪造是 Deepfake 技术最为主要的代表,其制作假视频的技术也被称为人工智能换脸(AI face swap)。一直以来,研究者发现 DeepFake 存在着这样一个漏洞:当伪造人脸头部转到 90 度时(侧脸 90 度),对方就能识别视频中的人脸是不是伪造的。

这是怎么回事呢?在最近的一项测试中,技术专家兼评论员 Bob Doyle 允许研究人员进行一些关于人脸伪造的测试,期间研究人员采用 DeepFaceLive 来改变他的外貌。DeepFaceLive 是流行的 DeepFaceLab 软件的一个直播版本,能够帮助用户实时创建不同的视频身份。

测试中,在人脸转到 90 度以前,其余角度我们很难发现这张脸是伪造的。


为什么人脸转到 90 度时会出现漏洞?原来这些深度伪造模型都没有经过高质量的人脸轮廓数据训练,因而不能转换面部的不同边界,或者执行必要的修复。

不过,借助这一漏洞,我们可以判断视频会议中与自己交谈的人是真实的还是伪造的。

横向限制

这一漏洞是怎么造成的呢?

在 Deepfake 技术中,用于估计面部姿态的标准软件如「Facial Alignment Network」,在有些情况下不能无法可靠地工作。事实上,大多数基于 2D 的人脸对齐算法在从正面人脸映射到侧面人脸中,仅仅对齐了 50-60% 特征点。

我们以论文《Joint Multi-view Face Alignment in the Wild》来说,其展示了多视点人脸对齐,正面对齐包含 68 个特征点,而侧脸对齐只有 39 个。典型的 2D 人脸对齐算法使侧轮廓视图隐藏了 50% 的特征点,这会妨碍模型的识别、训练以及后续人脸合成。

意识到这个缺陷后,许多病毒式 Deepfake 都会有针对性地进行规避。一些人做出了一些努力,比如 YouTube 上就有人做过实验,他们通过大量的后期处理,将 Jerry Seinfeld 的脸替换到《低俗小说》 (1994) 中的紧张场景中,获得了很棒的侧视图。    

当然,完成如此逼真的换脸还需要大量的训练。本次用到了《宋飞传》里的镜头,时长达 66 小时,其中大部分镜头是 Jerry Seinfeld 的。

影视演员可以获得大量人脸视频,但对于我们普通人来说,侧面 90 度的照片却很少,可能是侧面照不能表达太多东西,而更多角度的照片可以提供更丰富的内容。

由于可用数据缺乏,很难获得一系列普通人的图像。因此,Deepfake 这一缺点提供了一种潜在的方法,可以在实时视频通话中发现「伪造」的人脸。如果你怀疑和你说话的人可能是一个「深度伪造的人脸」,你可以让他们侧身一到两秒钟,看看对方有没有破绽露出。

今年 5 月,AI 安全公司 Sensity 发布了一份报告和一段视频,展示了一个类似 DeepFaceLive 的系统,该系统通过伪造身份成功地骗过活体检测器。

Sensity 视频截图展示了 deepfake 对活体检测器的攻击。图源:theverge

Sensity CEO 兼首席科学家 Giorgio Patrini 表示,他们在实验和测试中没有进行 90 度人脸检测,并表示将人脸的侧视图用作身份验证的一种形式时,确实可以提供一些保护来防止 deepfake 技术。正如前面所指出的,缺乏广泛可用的侧视图数据,使得 deepfake 检测器的训练非常具有挑战性。

意识到训练数据的缺陷,论文《Dual-Generator Face Reenactment》的附加材料中提供了一些包含 90 度的人脸照片。

自该现象出现以来,研究界一直在深入研究和开发 deepfake 检测技术,但在一定程度上相关技术还是受到了阻碍。

尽管如此,研究人员还是提出了一些解决方案来保证视频通话中的安全。这些解决方案包括测量监视器照明、评估面部区域的不一致等方法。

Deepfake 换脸能够以假乱真,但鉴别算法总能找到破绽,以控制假视频的传播。

原文链接:https://metaphysic.ai/to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/:https://www.theverge.com/2022/5/18/23092964/deepfake-attack-facial-recognition-liveness-test-banks-sensity-report


相关文章
|
7月前
|
机器学习/深度学习 人工智能 安全
论文介绍:从黑盒生产语言模型中提取信息的模型窃取攻击
【2月更文挑战第22天】论文介绍:从黑盒生产语言模型中提取信息的模型窃取攻击
135 6
论文介绍:从黑盒生产语言模型中提取信息的模型窃取攻击
|
24天前
|
人工智能 算法
图像伪造照妖镜!北大发布多模态LLM图像篡改检测定位框架FakeShield
北京大学研究团队提出了一种名为FakeShield的多模态框架,旨在解决图像伪造检测与定位(IFDL)中的黑箱问题及泛化能力不足。FakeShield不仅能评估图像真实性,生成篡改区域的掩码,还能提供像素级和图像级的篡改线索及详细文本描述,增强检测的可解释性。通过使用GPT-4o增强现有数据集,创建多模态篡改描述数据集(MMTD-Set),并引入领域标签引导的可解释伪造检测模块(DTE-FDM)和多模态伪造定位模块(MFLM),FakeShield在多种篡改技术的检测与定位上表现优异,为图像真实性维护提供了有力工具。
53 14
|
6月前
|
安全 网络安全 数据安全/隐私保护
关于双面恶魔攻击的定义、检测和预防的最佳实践
关于双面恶魔攻击的定义、检测和预防的最佳实践
|
人工智能
如何判断某个视频是深度伪造的?
如何判断某个视频是深度伪造的?
160 0
|
XML 监控 安全
三个小Trick助力解决动作检测【摔倒检测】
三个小Trick助力解决动作检测【摔倒检测】
261 0
三个小Trick助力解决动作检测【摔倒检测】
|
机器学习/深度学习 Java vr&ar
GCAN:可解释的社交媒体假新闻检测方法
GCAN:可解释的社交媒体假新闻检测方法
424 0
GCAN:可解释的社交媒体假新闻检测方法
|
机器学习/深度学习 存储 人工智能
思必驰推出启发式对话系统,关注知识传播的会话精灵
近日,机器之心采访了思必驰北京研发院院长初敏博士,她向我们介绍了新型对话系统「会话精灵」的概念与过程。该对话系统通过知识图谱与复杂结构知识管理技术,完成语音识别、语义理解与对话生成。这一系统最大的特点是基于复杂结构知识库进行启发式的对话,即通过提问规划整个问答的主题变化。
331 0
思必驰推出启发式对话系统,关注知识传播的会话精灵
|
大数据 数据库
《位置大数据隐私管理》—— 第2章 典型攻击模型和隐私保护模型 2.1 位置连接攻击
本章将对典型攻击模型和相应的隐私保护模型进行说明。攻击模型包括位置连接攻击、位置同质性攻击、查询同质性攻击、位置依赖攻击和连续查询攻击模型。隐私保护模型包括位置k-匿名模型、位置l-差异性模型、查询p-敏感模型和m-不变性模型。
1934 0
|
安全
“隐身猫”传播量剧增 账号及隐私需保护
近日,360安全中心发布橙色木马疫情公告称,一款名为“隐身猫”的高危远程控制类木马在春节期间传播量剧增,已经超过80万台电脑被感染。360 安全专家石晓虹博士建议广大网民,尽快使用360安全卫士6.2以上版本对电脑进行全盘扫描,以免账号信息和个人隐私被黑客盗取。
901 0