哥伦比亚华人博士推出「蓝脸」机器人,会做42种表情!ICRA 2021已发表

简介: 给机器人赋予情感一直是AI工程师在做的事,最近哥伦比亚华人博士研究了一个能做6种情绪、42种表情的机器人,脸是蓝色的,看起来十分炫酷。相关工作已在ICRA 2021上发表。

机器人是否可以情感,一直是AI科学界和哲学界永恒的辩题。但不可否认的是,机器人冰冷的形象时常给他的创造者们带来恐惧的感觉。

20.jpg

虽然我们的面部表情在建立信任方面发挥着巨大的作用,但大多数机器人仍然保持着职业扑克玩家那种空白和静止的面容。

从疗养院到仓库和工厂,随着机器人越来越多地出现在机器人和人类需要紧密合作的地方,人们越来越迫切地需要一个反应更灵敏、外观更真实的机器人。

由于长期以来对机器人和人类之间的互动感兴趣,Creative Machines Lab at Columbia Engineering的研究人员历时五年,创造了 EVA,一个新的自主机器人,拥有一个柔软而富有表情的脸,可以响应附近人类的表情。

21.jpg

这项研究已经在 ICRA 2021 会议上发表,机器人的设计蓝图已经于2021年4月在Hardware-X上开源了。研究人员主要来自来自哥伦比亚大学工程与应用科学学院。

其中一个研究人员Lipson发现,机器人透过他们塑料的大眼睛盯着他,让他感觉这个机器人缺少灵魂。

在杂货店,他也发现了类似的趋势,他在那里遇到了佩戴名牌、戴着舒适的手工编织帽子的机器人。

人们似乎通过给机器人同事一个眼睛、一个身份或者一个名字来赋予他们人性, 这让研究人感觉很好奇,如果眼睛和衣服都能表达情感,为什么不制造一个拥有表情和反应更灵敏的人脸的机器人呢?

虽然这听起来很简单,但是对于机器人专家来说,创造一个令人信服的机器人脸是一个巨大的挑战。

22.jpg

几十年来,机器人的身体部件一直是由金属或硬塑料制成的,这些材料太硬,不能像人体组织那样流动和移动。机器人的硬件也同样粗糙,很难操作ーー电路、传感器和发动机都很重、耗电量大、体积庞大。

几年前,该项目的第一阶段于Lipson的实验室启动,当时本科生 Zanwar Faraj 带领一个学生团队建造机器人的物理机器。

他们把 EVA 建造成一个无实体的半身像,与Blue Man Group沉默但面部活泼的表演者有很强的相似性。

EVA 可以表达愤怒、厌恶、恐惧、喜悦、悲伤和惊讶这六种基本情绪,以及一系列更细微的情绪,通过使用人造肌肉(即电缆和马达)拉动 EVA 脸上的特定点,模仿连接在人脸皮肤和骨骼上的超过42个微小肌肉的动作。

创建 EVA 的最大挑战是设计一个足够紧凑的系统,既能够适应人类头骨的范围,又能够产生各种面部表情。

23.jpg

为了克服这一挑战,研究小组主要依靠3d 打印技术来制造具有复杂形状的零件,这些零件与 EVA 的头骨无缝、高效地结合在一起。经过几个星期的努力,使 EVA 微笑,皱眉,或看起来沮丧,研究小组注意到 EVA 的蓝色,脱离实体的脸可能引起他们的实验室同事的情绪反应。

“有一天,我正在做自己的事情,长荣突然给了我一个大大的,友好的微笑,”Lipson回忆说。“我知道这完全是机械性的,但我发现自己条件反射地回以微笑。”

一旦团队对 EVA 的机制感到满意,他们就开始着手该项目的第二个主要阶段: 编写人工智能程序来指导 EVA 的面部运动。

尽管栩栩如生的电子机器人已经在主题公园和电影制片厂使用多年,但Lipson的团队在技术上取得了两大进步。EVA 使用深度学习人工智能读取和复制附近人脸的表情。EVA 模仿人类各种面部表情的能力是通过观看自己的视频反复试验而获得的。

最难自动化的人类活动包括在复杂的社会环境中发生的非重复性的身体运动。领导这个项目软件阶段的Lipson博士生Boyuan Chen很快意识到 EVA 的面部运动过于复杂,不能按照预先定义的规则进行管理。

为了应对这一挑战,Chen和另一个学生团队使用几个深度学习神经网络创建了 EVA 的大脑。机器人的大脑需要掌握两种能力: 第一,学会利用自身复杂的机械肌肉系统来产生任何特定的面部表情; 第二,通过读取人类的面部表情来知道要做哪些面部表情。

为了让 EVA 知道自己的脸是什么样子,Chen和他的团队拍摄了数小时的 EVA 随机面孔连续镜头。然后,就像人类在 Zoom 上看自己一样,EVA 的内部神经网络学会了将肌肉运动与它自己脸部的视频片段结合起来。现在 EVA 对自己的脸是如何工作有了初步的认识(自我形象) ,它使用第二个网络将自己的自我形象与其摄像机捕捉到的人脸图像进行匹配。经过几次改进和反复,EVA 获得了从摄像机读取人类面部表情的能力,并通过模仿人类面部表情做出回应。

研究人员指出,EVA 尽管是一个实验室的实验,单独的模仿与人类通过面部表情进行交流的复杂方式相去甚远,但是这种技术有朝一日可能会有有益的、真实的应用。

例如,能够对各种各样的人类肢体语言做出反应的机器人将在工作场所、医院、学校和家庭中大有用处。

相关文章
|
7月前
|
人工智能 机器人 人机交互
哥大华人开发人脸机器人,照镜子自主模仿人类表情超逼真
【4月更文挑战第3天】哥伦比亚大学研究人员开发了一款名为Emo的机器人,能观察并模仿人类面部表情,实现更自然的人机交互。Emo配备26个面部执行器和高分辨率摄像头,通过“自我建模”学习模仿表情,并能预测人类表情变化。这一创新有望改善人机理解和响应情绪的能力,应用于教育、医疗等领域,但也引发了关于情感依赖和伦理问题的讨论。
123 4
哥大华人开发人脸机器人,照镜子自主模仿人类表情超逼真
|
5月前
|
机器学习/深度学习 算法 机器人
相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision
【7月更文挑战第19天】UCSD和MIT华人团队开发的TeleVision技术实现了远程操控机器人。借助AR/VR,操作者通过头显设备获得实时的机器人视角,并通过手势控制执行任务。系统支持多人协作,已在远距离实验中成功导航复杂环境。不过,高带宽需求和交互学习曲线是挑战。[论文链接](https://robot-tv.github.io/resources/television.pdf)**
78 14
|
5月前
|
机器学习/深度学习 监控 安全
相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision
【7月更文挑战第20天】加州大学圣地亚哥分校(UCSD)与麻省理工学院(MIT)的华人团队开发出TeleVision系统,结合Apple AR/VR头显,实现超远程沉浸式机器人控制。💡该系统克服视频流延迟,精准手势识别难题,让操作者仿佛亲临现场指挥机器人行动。目前处于研究阶段,已展示基本任务执行能力。更多信息查阅[论文](https://robot-tv.github.io/resources/television.pdf)。🌐 --- **🏷️远程控制** **🏷️虚拟现实** **🏷️机器人技术** **🏷️华人科研** **🏷️科技创新**
51 4
|
机器学习/深度学习 算法 机器人
CMU发表新型灵巧机器人算法,准确学习日常家具的操纵方法
CMU发表新型灵巧机器人算法,准确学习日常家具的操纵方法
127 0
|
机器学习/深度学习 安全 机器人
Google X华人博士发布机器人模拟器SimGAN,ICLR2021已发表!
深度学习都能模拟现实了?通过观察机器人的运行轨迹,连摩擦系数都能学出来!Google X的一位斯坦福华人博士最近在ICLR2021上发表了一篇文章,教你动态模拟现实!
160 0
Google X华人博士发布机器人模拟器SimGAN,ICLR2021已发表!
|
机器学习/深度学习 自然语言处理 算法
Google X教你用模拟器训练机器人,准确率超93%,ICRA2021已发表
机器人的训练相比自然语言处理、视觉等领域来说更加困难,因为需要实际搭建一个环境,更多的时间来试错。而使用模拟器来模拟机器人,训练出来的模型想要直接应用到真实环境之间还需要消除他们之间的gap。
207 0
Google X教你用模拟器训练机器人,准确率超93%,ICRA2021已发表
|
机器人
敏捷如黄蜂!MIT华人助理教授造出「厘米级」类昆虫机器人
MIT华人助理教授Kevin Chen成功造出能够飞行的厘米级类昆虫机器人,不仅能飞,还能翻筋斗,实现了仿生昆虫无人机一大飞跃。
186 0
敏捷如黄蜂!MIT华人助理教授造出「厘米级」类昆虫机器人
|
新零售 人工智能 自然语言处理
复旦博士给机器人当语言老师,教出了英语四级水平的“阿里小蜜“
海外生活十五载,这位全美律师都离不开的复旦博士,回国第一份工作,是进阿里做客服小二。
2007 0

热门文章

最新文章

下一篇
无影云桌面