《中国人工智能学会通讯》——10.25 跨姿态和光照变化的低分辨率人脸识别-阿里云开发者社区

开发者社区> 数字技术前瞻> 正文
登录阅读全文

《中国人工智能学会通讯》——10.25 跨姿态和光照变化的低分辨率人脸识别

简介: 本节书摘来自CCAI《中国人工智能学会通讯》一书中的第10章,第10.25节, 更多章节内容可以访问云栖社区“CCAI”公众号查看。

10.25 跨姿态和光照变化的低分辨率人脸识别

为了解决安全问题,监控的使用逐渐增多,这使得人们对完全自动并具有鲁棒性的人脸识别系统的要求也随之增大。通过监控获得的图片通常分辨率较低且姿态和光照条件不可控,这让这些人脸图片的识别变得极具挑战性。解决一个或多个不同的问题,例如光照差、无正面的姿态和表情等,文献[1-4] 已经给予了足够的关注。而且一起解决这些问题在很多应用中是非常重要的,像识别监控中的人脸图片。最近,一种基于学习的方法被提出,对在不可控光照环境下得到的低分辨率非正面识别图片与高分辨率图片进行匹配[5] 。此方法在带有姿态、光照及分辨率条件下的人脸匹配表现得很好,但是它要求在训练图片和测试图片中有几个重要的位置点(像眼角、鼻子、嘴巴等),这对没有正面姿势的低分辨图片来说是非常困难的。

本文所提出的方法可以看作是对文献 [5] 的完善,因为它并没有要求在测试图片时,对非正面低分辨率图片进行位置标记。只有在训练阶段,我们需要不同的基点位置去得到转换矩阵。还有一个与文献 [5] 所述方法重要的不同点。在本文所提出的方法中,我们需要一个通用的转换矩阵,该矩阵可以将低分辨率测试样本和高分辨率训练样本投影到一个通用空间,它在训练中是使用多尺度分析法得到的。人脸的 SIFT 描述被用作人脸的描述。在测试时,人脸图片基于检测到的眼睛位置进行对齐。通过学习得到的转换矩阵,将低分辨率测试样本和高分辨率训练样本投影到一个通用空间。立体匹配代价用来计算带有姿态变化的两个图片之间的距离。此方法表现出了很好的识别性能,但是它要求大量的计算时间,这主要是由于立体匹配代价不得不计算测试图片与所有训练图片简单距离。

在这篇文献中,我们还开发了一种基于参考的人脸识别系统,在不影响识别性能的情况下可以提高此方法的计算性能。立体匹配算法已经在文献 [6]中被提出用来匹配带有姿态变化的人脸图像,我们把它扩展到一种基于学习的立体匹配算法中,来匹配带有姿态、光照及分辨率变化的人脸。在 Multi-PIE 数据库[7] 、SurveillanceCameras Face数据库[8] 、Multiple Biometric Grand Challenge(MBGC) 数据库 [9] 和 Choke Point 数据库 [10] 上进行了大量的实验。这篇文章的主要贡献(以及和所提到的文献[5-6]的不同之处)可以归纳如下:

● 在训练间,转换矩阵是通过整个脸获得的,这与文献 [5] 选择基点位置相反。
● 一种完全自动的基于学习的立体匹配算法,对带有姿态、光照及分辨率变化的人脸进行匹配。
● 一种基于参考计算有效性的方法,减少了此方法的计算代价。
● 在真实环境下的实验验证了本文方法的有效性。不同之处将体现在本文的各个部分。

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

分享: