【RLchina第五讲】Control as Inference(下)

简介: 【RLchina第五讲】Control as Inference(下)
  • QV 之间的关系


  到这我们已经得到了策略,更进一步我们考虑Q V 之间的关系。考虑对动作空间下的边缘概率分布积分有:

image.png

但是往往环境是随机的,所以我们有:

image.png

 上述的这个反向传播值函数是很特别的,与以往的Q 值函数更新公式不同的地方在于,对于未来状态的状态值函数做了一个softmax这样的东西,这就使得不会突出考虑最大的那个值函数,也能够增加更多的探索。对于随机环境来说会有比较好的效果。


隐目标函数下的最大熵强化学习

image.png


优化目标为这两者的KL散度:


image.png

两边取负号,并将其展开可得:

image.png

此时最小化KL散度变成了最大化期望奖励和策略的熵。对于最后一步T TT,把末尾项展开,把策略扔到计算期望的函数里面,可以得到如下形式:


image.png

image.pngimage.png


整理可得:

image.png

image.png

可以看出,基于图概率下的策略搜索和基于变分推断做KL散度得到的策略结果是一样的。这也充分说明之前做的police inference就是在解决这个潜在目标函数下的优化问题。


随机环境下的优化

image.png

此时的KL散度优化目标可以写为:

image.pngimage.png

由于存在image.png这一项,在无模型的设定里,这一项是比较难优化的。

最大熵强化学习与变分推断


  变分推断是用一个简单的变分分布去近似后验分布,在最大熵RL里面的轨迹概率为:


image.png

这里我们将需要去近似这个分布的概率设置为:


image.png


最后一个不等式是通过Jensen’s inequality推导得到的。再依据p ( τ ) q ( τ )的定义,带入上述方程中,我们可以得到如下不等式:

image.png

上述用图模型思考强化学习问题的时候,目标函数会带一个entropy


Soft Q-Learning

image.png

image.pngimage.png


为了与标准的Q-Learning算法对比,我们给出标准的Q-Learning算法的更新公式:

image.png

  • Liu Q , Wang D . Stein Variational Gradient Descent: A General Purpose Bayesian Inference Algorithm[C]// 2016.
  • Haarnoja, T., Tang, H., Abbeel, P., and Levine, S. (2017). Reinforcement learning with deep energy- based policies. In International Conference on Machine Learning (ICML).


最大熵策略梯度

image.png

目标函数可以定义为:


image.png

对其求梯度有:


image.pngimage.png

image.png

Soft Actor-Critic


  SAC就是将优势函数也进行参数化,变成一个off-policy的算法。优化目标为:

image.png

 对Q 值函数一样,有:

image.png

对其求导有:


image.png

策略优化目标为:

image.png

伪代码:

参考文献


  1. Pattern recognition and machine learning by Bishop 2006
  2. Levine, S., 2018. Reinforcement learning and control as probabilistic inference: Tutorial and review. arXiv preprint arXiv:1805.00909
  3. Haarnoja, T., Tang, H., Abbeel, P., and Levine, S. (2017). Reinforcement learning with deep energy- based policies. In International Conference on Machine Learning (ICML).
  4. Tuomas Haarnoja*, Aurick Zhou*, Kristian Hartikainen*, George Tucker, Sehoon Ha, Jie Tan, Vikash Kumar, Henry Zhu, Abhishek Gupta, Pieter Abbeel, Sergey Levine. Soft Actor-Critic Algorithms and Applications. arXiv preprint, 2018.
  5. Kappen. (2009). Optimal control as a graphical model inference problem: frames control as an inference problem in a graphical model
  6. Ziebart. (2010). Modeling interaction via the principle of maximal causal entropy: connection between soft optimality and maximum entropy modeling.
相关文章
|
6月前
|
Java 容器 Spring
Inverse of Control
【6月更文挑战第3天】
35 5
|
自然语言处理 算法 vr&ar
X-GEAR:Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
我们提出了一项利用多语言预训练生成语言模型进行零样本跨语言事件论元抽取(EAE)的研究。通过将EAE定义为语言生成任务,我们的方法有效地编码事件结构并捕获论元之间的依赖关系。
129 0
|
机器学习/深度学习
【RLchina第五讲】Control as Inference(上)
【RLchina第五讲】Control as Inference(上)
108 0
|
自然语言处理 算法 知识图谱
DEGREE: A Data-Efficient Generation-Based Event Extraction Model论文解读
事件抽取需要专家进行高质量的人工标注,这通常很昂贵。因此,学习一个仅用少数标记示例就能训练的数据高效事件抽取模型已成为一个至关重要的挑战。
169 0
|
机器学习/深度学习 算法
【ICLR2020】Dream to Control:Learning Behaviors by Latent Imagination
【ICLR2020】Dream to Control:Learning Behaviors by Latent Imagination
159 0
|
算法 Go
【5分钟 Paper】Continuous Control With Deep Reinforcement Learning
【5分钟 Paper】Continuous Control With Deep Reinforcement Learning
|
机器学习/深度学习 自然语言处理 算法
SS-AGA:Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment 论文解读
预测知识图(KG)中缺失的事实是至关重要的,因为现代知识图远未补全。由于劳动密集型的人类标签,当处理以各种语言表示的知识时,这种现象会恶化。
112 0
|
机器学习/深度学习 自然语言处理 算法
TPLinker: Single-stage Joint Extraction of Entities and Relations Through Token Pair Linking 论文解读
近年来,从非结构化文本中提取实体和关系引起了越来越多的关注,但由于识别共享实体的重叠关系存在内在困难,因此仍然具有挑战性。先前的研究表明,联合学习可以显著提高性能。然而,它们通常涉及连续的相互关联的步骤,并存在暴露偏差的问题。
225 0
|
机器学习/深度学习 存储 传感器
Automated defect inspection system for metal surfaces based on deep learning and data augmentation
简述:卷积变分自动编码器(CVAE)生成特定的图像,再使用基于深度CNN的缺陷分类算法进行分类。在生成足够的数据来训练基于深度学习的分类模型之后,使用生成的数据来训练分类模型。
163 0
|
机器学习/深度学习 算法 数据挖掘
A Generative Adversarial Network-based Deep Learning Method for Low-quality Defect ImageReconstructi
本文提出了一种基于生成对抗网络 (GAN) 的 DL 方法,用于低质量缺陷图像识别。 GAN用于重建低质量缺陷图像,并建立VGG16网络识别重建图像。
161 0

热门文章

最新文章