只需看一眼,伯克利最新机器人就可以copy你的动作!

简介: 通过观察另一个人的做法来学习一项新技能,即模仿的能力,是人类和动物智力的关键部分。我们能让机器人做同样的事情吗?

通过观察另一个人的做法来学习一项新技能,即模仿的能力,是人类和动物智力的关键部分。我们能让机器人做同样的事情吗?

伯克利研究中心近日po出的一个新的研究成果中,机器人也可以通过一次性观察,模仿人类的某个动作了。

让机器人具备这种“模仿”能力有什么意义呢?

伯克利称,这或许将成为我们与机器人沟通的一种新的方式。

之前,人类与机器人的沟通多基于要远程操作机器人或设计奖励函数。这种方法依赖一个成熟的感知系统,因此比较困难。而在模仿系统下,想要让机器人完成一个任务,我们只需简单地向机器人展示我们想让它们做什么就可以了。

其实,这一领域已有很多精彩的研究,比如模仿学习——机器人如何从自己的同类专家(即通过远程操作或动觉教学)中学习。

然而,基于视觉技能的模仿学习通常需要专家多次演示一项技能。

例如,使用原始像素输入访问单个固定对象,这样的任务需要多达200次演示,才能获得良好的性能。

如果演示次数太少,机器人一般很难学会。

此外,当机器人需要模仿表现出某种操作技能的人类时,这个问题变得更加具有挑战性。

首先,机器人的手臂看起来和人类的手臂有很大的不同;

第二,在人类演示和机器人演示之间建立正确的对应关系是非常难的。

只是跟踪和重新绘制运动图还不够简单:这项任务更关键地取决于这个运动如何影响世界中的物体,需要建立起一个基于交互的通信。

为了让机器人能够从一个人类的视频中模仿技能,伯克利这一研究的创新之处在于,让机器人融合以前的经验,而不是从头开始学习每一项技能。

通过结合以前的经验,机器人还应该能够快速地学习操作新对象,同时不改变域的改变,这种改变包括:提供演示的人、变化的背景场景或不同的视角。

伯克利希望通过学习从示范数据中学习来实现这两种能力:小样本模仿(few-shot imitation)和域不变性。这项技术,也被称为元学习,是我们如何让机器人具备通过观察并模仿人类的能力的关键。

点击查看元学习相关资料:
http://bair.berkeley.edu/blog/2017/07/18/learning-to-learn/

一次性模仿学习(One-Shot Imitation Learning)

那么,如何利用元学习让机器人快速适应不同的对象呢?

伯克利的方法是将元学习和模仿学习结合起来,使一次性模仿学习成为可能。其核心思想是提供一个特定任务的单一演示,即操纵一个特定对象,机器人可以快速识别任务是什么,并在不同的环境下成功地解决它。

伯克利之前一项关于一次性模仿学习的研究通过学习成千上万的演示,获得了卓越的结果,比如在块堆叠等模拟任务上。

如果想要一个物理机器人能够模仿人类并操纵各种各样的新事物,我们需要开发一个新的系统,它可以学习如何从视频演示中学习,用一个可以在现实世界中实际收集的数据集。首先,讨论通过远程操作收集的单个演示的视觉模拟方法。然后,展示如何将它扩展到从人类的视频中学习。

一次性视觉模拟学习(One-Shot Visual Imitation Learning)

为了使机器人能够从观看视频中学习,伯克利的本次研究结合了模拟学习和有效的元学习算法,也即model-agnostic meta learning(MAML)。

点击查看元学习算法
http://bair.berkeley.edu/blog/2017/07/18/learning-to-learn/

在这个方法中,伯克利用带有参数θ的卷积神经网络作为策略表示。从机器人相机和机器人结构(如关节角度和关节速度)的图像映射到机器人在t时刻的动作(如抓手的线速度和角速度)。

以下是伯克利算法的三个主要步骤:

image


伯克利元学习算法的三个步骤

首先,收集一个巨大的数据集,其中包含远程操作机器人执行许多不同任务的演示,在伯克利提供的例子中,这些任务对应于操作不同的对象。在第二步中,运用MAML学习一组初始的策略参数θ,这样,在被提供了某个对象的一个演示之后,可以对那个对象运行梯度下降法找到可概括的策略参数。当使用远程操作演示时,可以通过比较策略的预测动作来计算策略更新:


image


然后,通过驱动更新策略匹配来自同一对象的另一个演示的操作来优化初始参数θ。在元训练之后,可以要求机器人通过使用该任务的一个演示来计算梯度步骤来操作完全不可见的对象。这一步叫做元测试。

由于该方法没有为元学习和优化引入任何额外的参数,结果证明它是非常数据有效的。因此,只需观看远程的机器人演示,就可以完成推放等多种控制任务:

通过域自适应元学习观察人类的一次性模仿

上述方法仍然依赖于远程操作机器人的演示而非人类的演示。为此,伯克利还在上述算法的基础上,设计了一种域自适应一次性模拟方法。

伯克利收集了远程操作机器人和人类完成的许多不同任务的演示。然后,提供人工演示来计算策略更新,并使用执行相同任务的机器人演示来评估更新的策略。该算法的图示如下:

image

图:域自适应元学习概览


遗憾的是,由于人工演示只是一个人执行任务的视频,它不包含专家操作,所以伯克利也提出,无法计算上面定义的策略更新。因此,其建议学习一个更新策略的损失函数,一个不需要动作标签的损失函数。

学习损失函数背后的直觉是,可以获得一个函数,该函数只使用可获得的输入、未标记的视频,但仍然可以生成用于更新策略参数的梯度,从而产生一个成功的策略。

虽然这似乎是一项不可能完成的任务,但重要的是要记住,在梯度步之后,元训练过程仍然用真正的机器人动作来管理策略。因此,学习损失的作用可能被解释为简单地指导参数更新,以修改策略,以在场景中获取正确的视觉线索,以便元训练的动作输出将产生正确的动作。用时间卷积表示学习的损失函数,它可以在视频演示中提取时间信息:


image

伯克利将这种方法称为域自适应元学习算法,因为它是从来自不同域的数据中学习(在这里指人类视频),机器人的策略在这个域中运行。伯克利通过这种方法,使PR2机器人能够有效地学习如何将在元训练中看不到的许多不同的物体推向目标位置

伯克利还使用在不同房间用不同的摄像机收集的人类演示来评估这种方法。

下一步是什么?

伯克利称,既然其已经教机器人通过观看一个视频学会操纵新对象,下一步自然是进一步扩展这些方法,设置不同的任务对应于完全不同的运动和目标,比如使用各种各样的工具或玩各种各样的运动。

通过在任务的底层分配中考虑更多的多样性,我们希望这些模型能够实现泛化,允许机器人快速地为新情况制定策略。此外,在这里开发的技术并不是局限于机器人操纵甚至控制的。例如,模仿学习和元学习都被用于语言环境中,在语言和其他顺序决策环境中,学会模仿一些演示是未来工作的一个有趣的方向。

原文发布时间为:2018-07-12
本文作者:文摘菌
本文来自云栖社区合作伙伴“ 大数据文摘”,了解相关信息可以关注“ 大数据文摘”。

相关文章
|
6月前
|
算法 机器人 Python
动态规划法在扫地机器人中的实战应用(基于动作值函数的策略迭代 python 附源码)
动态规划法在扫地机器人中的实战应用(基于动作值函数的策略迭代 python 附源码)
82 0
|
6月前
|
机器学习/深度学习 算法 Python
动态规划法和策略迭代在扫地机器人中确定状态值和动作值函数的策略评估(python实现 附源码 超详细)
动态规划法和策略迭代在扫地机器人中确定状态值和动作值函数的策略评估(python实现 附源码 超详细)
74 0
|
2月前
|
机器学习/深度学习 传感器 机器人
机器人策略学习的Game Changer?伯克利提出Body Transformer
【9月更文挑战第13天】加州大学伯克利分校的研究团队提出了一种名为Body Transformer(BoT)的创新架构,旨在通过将机器人的物理形态建模为传感器和执行器组成的图,并利用掩码注意力机制汇聚信息,为机器人学习策略提供有效归纳偏置。BoT不仅在模仿学习和强化学习中表现出色,在任务完成、缩放特性及计算效率方面超越传统架构,而且具备更强的稳定性和泛化能力。尽管存在适用范围和计算资源等局限性,BoT仍展示了在实际应用中的巨大潜力。论文详情见:https://arxiv.org/pdf/2408.06316v1
31 6
|
3月前
|
自然语言处理 机器人 API
Instruct2Act:使用大型语言模型将多模态指令映射到机器人动作
Instruct2Act是一个框架,它结合了大型语言模型和多模态基础模型,将自然语言和视觉指令转换为机器人的顺序动作,实现精确的感知、规划和行动,展示了强大的零样本性能和灵活性。
46 0
Instruct2Act:使用大型语言模型将多模态指令映射到机器人动作
|
6月前
|
机器学习/深度学习 人工智能 机器人
[译][AI 机器人] Atlas的电动新时代,不再局限于人类运动范围的动作方式
波士顿动力宣布液压Atlas机器人退役,推出全新电动Atlas,旨在实现更广泛的实际应用。这款全电动机器人将拓展人类运动范围,解决复杂工业挑战。现代汽车公司将参与其商业化进程,作为测试应用场景。波士顿动力计划与创新客户合作,逐步迭代Atlas的应用,打造高效、实用的移动机器人解决方案。Atlas将结合强化学习和计算机视觉等先进技术,通过Orbit软件平台进行管理,未来将在真实世界中发挥超越人类能力的作用。
|
机器学习/深度学习 自然语言处理 算法
谷歌让机器人充当大语言模型的手和眼,一个任务拆解成16个动作一气呵成
谷歌让机器人充当大语言模型的手和眼,一个任务拆解成16个动作一气呵成
256 0
|
机器学习/深度学习 传感器 人工智能
谷歌 AI 提出双重策略强化学习框架,帮助机器人安全学习动作技能
深度强化学习在自主解决复杂、高维问题方面的前景,引起了机器人、游戏和自动驾驶汽车等领域的极大兴趣。但是,要想有效地进行强化学习策略的训练,需要对大量的机器人状态和行为进行研究。这其中存在一定的安全风险,比如,在训练一个有腿机器人时,由于这类机器人自身不稳定,机器人在学习时很容易发生跌倒,这可能会造成机器人的损害。
317 0
谷歌 AI 提出双重策略强化学习框架,帮助机器人安全学习动作技能
|
机器学习/深度学习 人工智能 机器人
看YouTube学做广播体操?机器人即将掌握人类所有动作 | 一周AI最火论文
机器人世界正在迅速地发展,很快我们就会目睹机器人掌握更多之前只有人类能够掌握的技能。在这篇论文中,研究人员提出了一个激动人心的课题——指导机器人复制视频中的动作。他们解决了机器人对协同动作计划学习的挑战。
1236 0
看YouTube学做广播体操?机器人即将掌握人类所有动作 | 一周AI最火论文
|
Web App开发 机器学习/深度学习 人工智能

热门文章

最新文章