- 论文题目:Recurrent World Models Facilitate Policy Evolution
所解决的问题?
从world model
中学一个policy
,并将迁移到real world
。
背景
人类通常是通过自己的感官数据建立自己对这个世界的认知模型。比如看同一张图片,不同的人能够得到不同的抽象理解,而这个理解跟他自己之前建立的世界观存在相关性。这种对世界的认知能够帮助我们,遇到问题或者是危险的时候,快速做出反应。
所采用的方法?
作者结合RNN
和概率建模的方法做的。在这之前基于模型的强化学习算法能够取得比较好的效果,但是很多仍然在真实的环境中进行训练。而作者提出一种在生成的world model
中学policy
,并将其迁移到真实环境中。
VAE
用于压缩信息得到latent vector
。RNN
用于输出一个概率密度函数p ( z ) p(z)p(z) (混合高斯模型做的)。RNN
建模表示为P ( z t + 1 ∣ a t , z t , h t ) P(z_{t+1}|a_{t},z_{t},h_{t})P(zt+1∣at,zt,ht),具体关系如上图所示。控制器用的Covariance-Matrix Adaptation Evolution Strategy (CMA-ES) 。
总的来说就是基于观测的隐变量,对上一帧隐变量的预测,以及动作去预测下一帧隐变量。然后当前状态的隐变量和预测的状态隐变量来共同决定所选取哪个动作。
这里作者期望RNN
能够学的环境的编码之后隐变量与动作交互数据的潜在规律(因为RNN
的输出是含有所有之前的历史信息的),然后用于辅助决策。VAE
和RNN
的训练都可以不需要奖励信息,只给交互数据就可以。
这么做的原因就是先对环境信息做了一个特征抽取,然后基于这个抽取的特征再用于训练得到policy
,好处在于做了特征提取之后,观测的有效信息比较多,特征比较明显,那当然再做policy
的学习会更快。
取得的效果?
基于手工提取特征的智能体得分是V model 632分上下浮动。
所出版信息?作者信息?
David Ha
谷歌大脑成员,主要研究机器智能。