AI说长这样挣得多!Nature力证科学看相,3万张自拍揭露面相-性格关系,碾压算命先生

简介: AI说长这样挣得多!Nature力证科学看相,3万张自拍揭露面相-性格关系,碾压算命先生

俗话说得好,相由心生。

在中国,面相是阴阳五行学说的重要分支,古人认为,只要把握规律就可从面部特征中推算出一个人的命运走势和富贵贫贱。

但随着科学技术的发展,我们逐渐抛弃了这个概念,算命先生由此成了玄学的代言人,面相这个概念也和“封建迷信”联系在了一起。

用AI为面相研究正名也不是什么新鲜事了,比如之前大火的“面相研究所”,不过现在看来,或许面相研究是假,坑钱是真。那么,用AI看面相就这么宣告失败了吗?

现在,新证据来了,而且是目前最有力的证据,研究表明,一个人的面相与性格存在着很大关系,以面相识人也存在可循的规律。

5月22日,Nature发表了一篇论文,由莫斯科大学(Moscow universities),HSE大学(高等经济学院,Higher School of Economics)和开放大学人文与经济学院(Open University for the Humanities and Economics)组成的研究团队征集了12000名志愿者,利用31000张自拍,学习了128种人脸特征,在与志愿者自己填写的信息相比之后,研究者们发现,AI识别的准确率达到了58%,并且,AI的表现比算命先生更稳定。

论文链接如下,感兴趣的朋友们可千万别错过了:
https://www.nature.com/articles/s41598-020-65358-6

女性比男性更容易识别,“责任心”更容易看出来

为了打破“看面相=玄学”的刻板印象,研究团队招募到了12000名志愿者,收集到了31000张自拍,在此基础上,还用到神经网络评估了人脸的128个特征,比如嘴巴宽度、嘴唇或眼睛高度,确保了实验覆盖的数据量级和多样性。

为了进一步地确保实验的准确性和客观性,得到数据之后,研究人员将数据分为两组,一个用来训练AI,一个用来用来测试神经网络的准确性。

在对志愿者识别结果的分类上,研究人员参考了五大人格特征(Big Five),即责任心(conscientiousness)、神经质(neuroticism)、外向性(extraversion)、亲和性(agreeableness)、开放(openness)。

在结果中,除了面相与性格的关系,研究人员还针对此对不同标签下的群体可能过着的生活进行了调查和总结,让实验结果更贴近生活,也…更有“AI版算命先生”内味儿了。

比如,在AI看来,从长相中也能看出一个人到底挣得多不多。系统认为,性格越开放的人,他们的收入往往越高,如下图所示,从左至右就是开放度从低到高的变化过程。

想知道自己挣得多不多,可以对比一下自己的面相和下图右边的面相到底有几分相似。

除此之外,一个有责任心的人的面相变化也是有变化规律的,从左到右,一个人的责任心逐渐增强,同时,一个有责任心的人身体健康的可能性也越大,与周围人的关系也会更融洽。

下图从左至右表现的是一个人的性格从内向逐渐向外向的变化,研究者发现,外向的人在生活中更容易获得快乐,也更喜欢挑战自己,比如他们会更喜欢刺纹身。

在神经质的标签下,一个人的面相变化如下图所示,可以想见,他们会遇到更多的心理健康问题,也更需要朋友和亲人的支持。

亲和的人在各个场合下都很受欢迎,他们身边也往往有很多可以倾心的朋友,这类人的面相变化如下图所示。

在对结果的评判上,研究者们以志愿者们自己填写的资料为标准,确保在实验前,AI系统并没有关于这个人的任何信息。

以性别为轴,AI对女性的识别比男性更为准确,在五个性格标签分类上,AI对责任心的识别最准确。总的来说,AI的识别准确率达到了58%,在50%的时间内,AI识别的结果都是准确的,并且,他们将AI与人类算命先生比较后发现,AI的表现更稳定。

论文共同作者Evgeny Osin表示,一个人的面部包含了很多信息,可以从中看到人的内在,“借助AI选择另一半,可以帮助个人获得更令人满意的互动结果”。

论文中指出,该AI系统可以帮助老板面试员工,也可以运用到相亲网站上进行更好地匹配对象,在客户服务、在线辅导等领域都可以发挥很大的作用。

Osin说:“我们的研究结果表明,即使是没有条件限制下拍摄的照片,也可以用复杂的计算机视觉算法来预测人格特质。我们方法的优势在于它相对简单,不依赖3D扫描仪或3D面部地标地图,可以使用台式计算机轻松实现。”

“男女有别”,要分开实验

研究最初的样本参与者达到25202名,照片总数达到了77346张,经过数据筛选程序,最终得以保留的数据集包含12447份有效问卷和31367张照片。

这些参与者的年龄介于18至60岁之间,其中女性占比59.4%,男性占比40.6%。在实验中的两类数据上,用于训练的数据集占比90%,用于验证的数据集占比10%,验证数据集包括505位提供1224张面部图像的男性和740位提供1913张图像的女性。

实验所用的照片都保证了充足的光线,没有其他人,也统一了不带妆,以及保持无表情的状态。

在AI系统的设计上,研究人员开发了一种计算机视觉神经网络(NNCV),旨在确定静态面部图像的不变特征,将一张脸与另一张脸区分开,但在同一人的不同图像中保持不变。在拍摄静态单色图像(大小为224×224像素)后,NNCV能生成128个32位尺寸矢量,这些矢量描述了源图像中的独特面部特征。

同时,研究团队训练了人格诊断神经网络(NNPD),该网络被实现为多层感知器。NNPD将从NNCV获得的不变量的向量作为输入,预测输出五种人格特质,整个过程分别针对男性和女性面部识别进行。

计算机视觉神经网络和个性诊断神经网络(NNPD)的层体系结构如下图所示:

从面部信息出发,技术将走向何处?

正如Evgeny Osin所说,面部实际上包含着大量信息,除了鉴定性格,在其他领域,AI也有较好的发展。

比如医疗,去年1月,Nature Medicine刊登了一篇论文,论文中提出了一种深度学习算法DeepGestalt,该算法能在儿童身上检测出罕见遗传病,而利用到的,正是面部照片。

这项辅助诊断方法搭载到名为Face2Gene的智能手机APP上,该应用依靠深度学习算法和类脑神经网络,用以区分人类照片中与先天性和神经发育障碍有关的独特面部特征,利用从照片中推断出的模式,最终可以得出可能的诊断结果,同时提供可能的选项列表。

在识别遗传病Top-10上,Face2Gene准确率高达91%,已经超过了人类医生,如果在未来能够针对已知问题持续改进,就可以更好地帮助全球儿童获得更好的医疗条件。

更早的例子发生在2016年,上海交通大学武筱林和张熙在预印本网站上发表论文《使用脸部图像自动推断罪犯》(Automated Inference on Criminality Using Face Images),在论文中,吴和张指出,机器学习技术可以预测一个人是否是犯罪分子(不是犯罪嫌疑人),准确度几乎可以达到90%,他们使用的数据仅仅是证件照片。

不过,论文一出,迅速引发了AI在伦理方面的争议。一名留学在外的上海交大校友甚至公开表示:“我建议撤销这篇论文,并且上传一封公告,为不恰当的研究方法致歉。”“这篇论文给上海交大的声誉带来了很糟糕的影响,这对那些申请美国高校的上海交大学子来说,将会是一场灾难。”

不仅如此,谷歌研究员写了两万字长文对该论文进行批判,Blaise Agüera y Arcas等人一致认为,该论文在实验精度、材料选取、输入内容,和客观性上都存在较大的问题。

论文中使用的6张照片:上排是“罪犯”,下排是“非犯罪分子”。上排的人都皱着眉头而下排没有。谷歌研究人员认为,深度学习系统可能只是“学会”了这些表面的区别。

他们指出,机器学习可以用作正途,也有被误用的可能,后者往往是无意的,这种误用源于对技术问题狭隘的偏执,包括以下四个方面:
缺乏对训练数据偏见来源的洞察力;
缺乏对该领域现有研究的仔细审查,特别是在机器学习领域之外;
不考虑可以产生测量相关性的各种因果关系;
不考虑机器学习系统应如何被实际使用,以及在实践中可能有什么社会影响。

之所以上海交大的事件能引起广泛关注,是因为这项技术在科学和法律这两种绝对理性的权威力量上进行了引用和概括。如果只是针对此事进行讨论,面相结构其实是社会建构的产物,一个人的成长过程、成长环境都能对其产生影响,甚至拍摄照片时的灯光、情绪等都是不确定因子,当这些不确定因素聚集起来,论文中宣称的90%准确率还剩下多少可信度?

当我们跳出上海交大事件,从更大的维度上说,面部信息的确是尚待开发的广阔领域,如果能利用其在社会不平等上做出贡献,如DeepGestalt,那自然是喜闻乐见。但是还需要注意的是,如果完全依赖这些数据,似乎也犯下了本质主义的过错,或者说,带有了优生学的意味。

如今,借由疫情而起,摄像头部署越来越密集,监控也越来越大胆,在这样的情况之下,我们应该如何有效避免技术走向它的反面,应该怎样为技术敲响警钟。

这一点,现在很重要,未来会越来越重要。

相关文章
|
29天前
|
人工智能 安全 搜索推荐
北大计算机学院再登国际AI顶刊!张铭教授团队揭露医疗AI致命漏洞
【10月更文挑战第17天】北京大学计算机学院张铭教授团队在国际顶级人工智能期刊上发表重要成果,揭示了医疗AI系统中的致命漏洞——“模型反演”。该漏洞可能导致误诊和医疗事故,引起学术界和工业界的广泛关注。研究强调了医疗AI系统安全性评估的重要性。
39 1
|
1月前
|
机器学习/深度学习 人工智能
打开AI黑匣子,三段式AI用于化学研究,优化分子同时产生新化学知识,登Nature
【10月更文挑战第11天】《自然》杂志发表了一项突破性的化学研究,介绍了一种名为“Closed-loop transfer”的AI技术。该技术通过数据生成、模型训练和实验验证三个阶段,不仅优化了分子结构,提高了光稳定性等性质,还发现了新的化学现象,为化学研究提供了新思路。此技术的应用加速了新材料的开发,展示了AI在解决复杂科学问题上的巨大潜力。
33 1
|
1月前
|
机器学习/深度学习 存储 人工智能
AI与量子计算:推动计算科学的边界
【10月更文挑战第7天】AI与量子计算的融合,标志着计算科学进入了一个全新的时代。在这个时代里,计算能力的边界被不断拓宽,科技创新的速度不断加快。我们有理由相信,在未来的日子里,AI与量子计算将继续携手并进,共同推动计算科学向着更加智能、更加高效的方向发展。让我们期待这一天的到来,共同见证计算科学的无限可能。
|
2月前
|
人工智能 自然语言处理 测试技术
用图灵测试检验AI尤其是大语言模型,真的科学吗?
【9月更文挑战第25天】《Does GPT-4 Pass the Turing Test?》一文评估了先进AI模型GPT-4的图灵测试表现。尽管GPT-4在某些对话中成功迷惑了参与者,但其整体成功率仅为41%,低于人类的63%。图灵测试作为评估AI语言能力的工具依然有效,但存在局限性,如无法评估AI的认知机制且受主观判断影响。此外,测试还引发了关于AI智能及伦理的讨论。
168 6
|
2月前
|
机器学习/深度学习 人工智能 数据可视化
首个全自动科学发现AI系统,Transformer作者创业公司Sakana AI推出AI Scientist
【9月更文挑战第11天】Sakana AI公司近日推出全球首个全自动科学发现AI系统——AI Scientist,实现了人工智能在科学研究领域的重大突破。AI Scientist不仅能独立完成从假设提出到实验设计、数据分析及论文撰写的全过程,还能通过模拟评审提升研究成果的质量。该系统已成功应用于机器学习的多个子领域,并产出达到顶级会议标准的论文。尽管其高效性备受赞誉,但也引发了关于研究可信度和潜在风险的讨论。Sakana AI强调,系统具备可追溯的决策过程与严格的评审机制,确保了研究的可靠性和透明度。论文详情参见:[链接]。
77 6
|
1月前
|
人工智能 安全 搜索推荐
北大计算机学院再登国际AI顶刊!张铭教授团队揭露医疗AI致命漏洞
【10月更文挑战第16天】北京大学张铭教授团队在国际顶级人工智能期刊上发表重要成果,揭示了医疗AI系统中的致命漏洞——“模型反演”。该漏洞可使攻击者通过特定数据样本误导AI诊断,引发误诊风险。此发现引起广泛关注,强调了医疗AI安全评估的重要性。
53 4
|
1月前
|
机器学习/深度学习 人工智能 算法
Nature子刊:AI模型测大脑年龄,究竟哪些因素会加速大脑衰老?
【10月更文挑战第7天】《自然医学》杂志近期发布了一项研究,介绍了一种名为BrainAge的人工智能模型,该模型可预测个体的大脑年龄并分析影响大脑衰老的因素。研究团队来自美国加州大学旧金山分校,利用英国生物银行的近50,000名参与者的数据,发现高血压、糖尿病、肥胖、吸烟、饮酒、缺乏运动及遗传因素均与大脑衰老有关。尽管存在数据集限制等局限性,BrainAge模型仍为研究大脑衰老和相关疾病提供了重要工具。
50 1
|
3月前
|
数据采集 人工智能
Nature封面:AI训练AI,越训越离谱
【8月更文挑战第16天】新发表于《自然》杂志的论文显示,当AI模型基于其他AI生成的数据训练时,会出现“模型崩溃”现象,即模型逐渐遗忘真实数据分布细节,偏向生成更常见模式而非罕见模式。这一研究由牛津、剑桥等高校合作完成,通过实验验证了不同AI模型均可能出现此问题,尤其是在低质或少量数据训练下更为显著。但通过数据增强或模型正则化可缓解该现象。研究强调了训练数据质量和来源的重要性,并引发了关于AI发展和应用的讨论。
199 58
|
3月前
|
机器学习/深度学习 人工智能
AI训AI惨遭投毒9次大崩溃,牛津剑桥等惊天发现登Nature封面!
【8月更文挑战第11天】牛津与剑桥大学研究揭示,AI模型若反复在自身生成的数据上训练,将遭遇“模型崩溃”,即性能严重退化,甚至遗忘真实世界的数据分布。此现象在《自然》杂志刊出,警示AI进化之路暗藏风险。实验显示,随着训练代际增加,模型倾向于生成更简单内容,丢失稀有信息,最终可能导致对现实世界的误解加深。此发现对AI领域的持续发展及模型可靠性提出了新的挑战。
199 60
|
2月前
|
人工智能 数据处理
Nature:AI让抄袭问题更加复杂,科学家该如何应对?
【9月更文挑战第16天】《自然》杂志一篇文章指出,AI在科研领域的应用日益增长,带来了加速数据处理、提升计算效率等益处,同时也引发了对科学标准、数据偏见及研究诚信的挑战。一项针对1600多名研究人员的调查显示,超半数认为未来十年AI将成为其研究领域不可或缺的工具。AI能够显著提升科研效率,但也可能增加对模式识别的依赖,加剧数据偏见,并引发研究不可重复性等问题。尤其是大型语言模型如ChatGPT,虽有助于改进论文语法和翻译,但也可能传播错误信息。此外,部分科学家面临计算资源和高质量数据不足等使用障碍。
42 3

热门文章

最新文章

下一篇
无影云桌面