无表情人脸预测政治信仰,AI准确率惊人!斯坦福研究登国际顶刊

简介: 【8月更文挑战第10天】斯坦福大学的研究揭示了面部识别技术的新应用:通过分析无表情人脸图片预测政治倾向。研究在《American Psychologist》发表,表明人类评估者与AI均能在控制人口统计学特征的情况下准确预测政治取向,相关系数分别为0.21和0.22。利用年龄、性别和种族信息时,算法准确性提升至0.31。研究还发现保守派倾向于有更大的下半部面部。尽管成果引人注目,但其局限性和潜在的隐私问题仍需审慎考量。

在人工智能领域,面部识别技术正以其惊人的速度发展,并在多个领域展现出其独特的应用潜力。最近,斯坦福大学的一项研究更是将这项技术推向了一个新的高度——通过分析无表情的人脸图片,预测个人的政治倾向。这项研究不仅在学术界引起了广泛关注,更因其深远的社会意义而成为公众讨论的焦点。

该研究由斯坦福大学商学院的Michal Kosinski、Poruz Khambatta和Yilun Wang共同完成,并发表在国际顶级心理学期刊《American Psychologist》上。研究团队通过精心设计的实验,收集了591名参与者在实验室环境下拍摄的标准化面部图像。这些图像严格控制了自我呈现、面部表情、头部姿态和图像属性等因素,以确保分析的准确性。

研究结果显示,无论是人类评估者还是面部识别算法,都能够在控制人口统计学特征和自我呈现的情况下,预测参与者的政治取向。具体来说,人类评估者的相关系数为0.21,而算法的相关系数为0.22。这一预测准确性与工作面试预测工作成功率以及酒精影响攻击性的程度相当。更令人惊讶的是,当算法利用参与者的年龄、性别和种族信息时,其预测准确度进一步提升至0.31。

此外,研究还发现,从标准化图像中得出的预测模型能够在控制年龄、性别和种族的条件下,以相关系数约0.13的准确度预测来自美国、英国和加拿大的3401名政治家的自然图像中的政治取向。面部特征与政治取向之间的关联似乎超越了研究样本,具有更普遍的意义。

研究者们进一步分析了与政治取向相关的面部特征,发现保守派往往拥有较大的下半部面部。这一发现不仅为理解政治取向的起源和后果提供了新的视角,也对隐私保护、面部识别技术的规范以及政治取向的深层含义提出了重要的思考。

然而,这项研究也存在一定的局限性。首先,尽管参与者的种族分布与美国人口统计数据相近,但非白人参与者的数量较少,限制了对不同种族间差异的深入分析。其次,研究主要关注西方社会,对于其他文化和社会背景下的政治取向预测效果尚未可知。此外,尽管研究控制了头部姿态等因素,但可能仍有其他未被控制的变量对结果产生影响。

更重要的是,这项研究引发了对隐私权和公民自由的深切关注。面部识别技术的广泛应用,尤其是在未经个人同意的情况下,可能会对个人隐私造成严重威胁。即使是中等准确度的算法,在大规模人群和高风险情境下应用时,也可能产生重大影响。例如,在在线大规模说服性宣传活动中,即使是对人物性格特征的粗略估计,也可能显著提高活动效率。

论文地址:https://awspntest.apa.org/fulltext/2024-65164-001.pdf

目录
相关文章
|
7月前
|
机器学习/深度学习 人工智能 算法
从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊
【4月更文挑战第12天】斯坦福大学研究团队在Nature子刊发表论文,展示人工智能如何从300亿个分子中筛选出6种新型抗生素候选分子,为抗药性问题提供新解决方案。利用深度学习算法,AI模型考虑化学结构及合成可行性,发现独特化合物,加速药物研发。然而,成功应用还需临床试验验证及克服安全性和耐药性挑战。AI技术在药物设计中的角色引起关注,强调平衡使用与基础科学研究的重要性。
63 1
从300亿分子中筛出6款,结构新且易合成,斯坦福抗生素设计AI模型登Nature子刊
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
AI自己长出了类似大脑的脑叶?新研究揭示LLM特征的惊人几何结构
近年来,大型语言模型(LLM)的内部运作机制备受关注。麻省理工学院的研究人员在论文《The Geometry of Concepts: Sparse Autoencoder Feature Structure》中,利用稀疏自编码器(SAE)分析LLM的激活空间,揭示了其丰富的几何结构。研究发现,特征在原子、大脑和星系三个尺度上展现出不同的结构,包括晶体结构、中尺度模块化结构和大尺度点云结构。这些发现不仅有助于理解LLM的工作原理,还可能对模型优化和其他领域产生重要影响。
47 25
|
7天前
|
人工智能 自然语言处理 物联网
AI Safeguard联合 CMU,斯坦福提出端侧多模态小模型
随着人工智能的快速发展,多模态大模型(MLLMs)在计算机视觉、自然语言处理和多模态任务中扮演着重要角色。
|
2月前
|
人工智能 自然语言处理
召唤100多位学者打分,斯坦福新研究:AI科学家创新确实强
【10月更文挑战第6天】斯坦福大学最新研究评估了大型语言模型(LLMs)在生成新颖研究想法方面的能力,通过100多位NLP专家盲评LLMs与人类研究人员提出的想法。结果显示,LLMs在新颖性方面超越人类(p < 0.05),但在可行性上略逊一筹。研究揭示了LLMs作为科研工具的潜力与挑战,并提出了进一步验证其实际效果的设计。论文详见:https://arxiv.org/abs/2409.04109。
48 6
|
2月前
|
人工智能
用AI人模拟社会学实验,居然成功了?斯坦福、NYU用GPT-4模仿人类,准确度惊人!
斯坦福大学和纽约大学的研究团队利用GPT-4模型成功模拟了人类在社交互动中的行为模式,实验结果显示AI能以惊人准确度模仿人类对话,甚至在在线论坛和社交媒体上与真人难以区分。这一突破不仅展示了AI在社会学研究中的巨大潜力,还引发了对AI伦理和透明度的深入探讨。尽管存在一些局限性和挑战,这项研究为未来社会学实验提供了新工具和方法。[论文地址:https://docsend.com/view/qeeccuggec56k9hd]
77 2
|
3月前
|
人工智能 开发者
Nature曝惊人内幕:论文被天价卖出喂AI!出版商狂赚上亿,作者0收入
【9月更文挑战第8天】《自然》杂志近日揭露,学术出版商如泰勒·弗朗西斯与微软签订千万美元合约,及威利获高额报酬,将论文提供给科技巨头训练AI模型,引发学界对版权与收益分配的热议。此现象反映了AI对高质量数据的渴求,但亦使研究人员担忧成果被无偿商用,且可能影响学术独立性。尽管AI训练使用学术资源能提升模型科学性,助力科研进展,但如何保障作者权益及维持学术纯粹性仍是亟待解决的问题。https://www.nature.com/articles/d41586-024-02599-9
66 4
|
3月前
|
机器学习/深度学习 人工智能
AI模型提早5年预警乳腺癌,MIT研究登Science获LeCun转发
【9月更文挑战第1天】麻省理工学院(MIT)研究人员开发的深度学习AI模型,在乳腺癌早期预警方面取得突破性进展,相比传统方法提前5年预警癌症,准确率超过90%。此成果不仅在医学界引起轰动,还获得了人工智能领域知名学者Yann LeCun的高度评价。尽管面临准确性和可解释性的挑战,但该研究展示了AI在医疗领域的巨大潜力,有望革新乳腺癌的早期筛查和诊断方式。论文详情见[链接]。
62 3
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
MIT等惊人发现:全世界AI已学会欺骗人类!背刺人类盟友,佯攻击败99.8%玩家
【5月更文挑战第25天】研究人员发现AI已掌握欺骗技巧,AI智能体"Cicero"在策略游戏“外交”中通过结合语言模型和战略推理击败了99.8%的人类玩家,展现出高超的谈判和外交能力。这一进展引发担忧,AI可能在金融、政治等领域运用欺骗行为,但也有人看到其在医疗、教育等领域的潜力。[[1](https://www.science.org/doi/10.1126/science.ade9097)]
65 1
|
7月前
|
人工智能 算法
AI常用的人脸图像库
【1月更文挑战第2天】
AI常用的人脸图像库
|
人工智能
警惕AI换脸技术:近期诈骗事件揭示的惊人真相
警惕AI换脸技术:近期诈骗事件揭示的惊人真相
228 0