- 论文题目:Mastering Atari, Go, chess and shogi by planning with a learned model
所解决的问题?
规划planning
一直都是人工智能研究领域中,人们追逐的一个比较难的研究点,基于树的规划算法,像AlphaGo
这类算法已经取得了巨大的成功,然而基于树模型的规划算法需要一个完美的环境模型,这个条件在真实的世界中是很难被满足的。
背景
基于模型的强化学习方法先学一个环境模型,然后基于所学的这个环境模型去规划能够解决无法在真实环境交互过多的问题。以往的经典的规划算法往往都会依赖被控对象的模型,这样对于实际地落地就存在很大的阻碍。现在做的比较好的基于模型的强化学习算法,都不会聚焦在重建整个的环境,也就是说一般不会重构整个的观测序列。像abstract mdp
和latent space
这类方法都能够比较高效地做值函数的估计。
所采用的方法?
MuZero
是基于AlphaZero
的改进版本。MuZero
扩展AlphaZero
到单个智能体领域以及非终止奖励的控制对象上。
算法主要的思想是预测未来,主要是预测那些可以直接用来规划未来的数据,比如预测未来的值函数。之后就可以基于预测数据进行规划。
- MuZero算法
具体做法是:模型接收一个观测数据(比如游戏的一帧像素),然后将其编码到隐藏状态空间。在隐藏状态空间可以通过给定动作和自回归的方式进行学习和训练。在每一步,模型需要产生(或者说去预测)一个策略,一个值函数(预测的累计奖励),和一个即时奖励的预测(当前步的奖励预测)。模型端到端直接训练好,并且作者这里并不采用dreamer
和planet
学习环境模型的方法,认为模型没有必要具有从隐状态复原到原像素这种能力。隐状态只要能够去正确地估计策略、值函数和即时奖励即可。
其中u 是真实地观测奖励,π 是策略,γ 是折扣因子。
说白了就是拿到过去的观测数据,编码到当前的隐藏状态,然后再给定未来的动作,就可以在隐藏状态空间中进行规划了。
- 想要实现上述功能,与基于模型的算法一样,两部走;学环境模型和策略规划。
环境模型需要提供的是:1. 状态转移;2. 每个节点允许搜索的动作(减少搜索空间);3. 终止节点。用神经网络来做就好了,环境模型其实是由两部分组成,表示模型和动态模型g θ
取得的效果?
- 实验结果总之就是很厉害啦!
所出版信息?作者信息?
Julian Schrittwieser
谷歌大脑软件工程师!AlphaGo
和AlphaZero
的项目组成员。