【Python强化学习】动态规划法中策略迭代和值迭代求解冰湖问题实战(图文解释 附源码)

简介: 【Python强化学习】动态规划法中策略迭代和值迭代求解冰湖问题实战(图文解释 附源码)

需要源码请点赞关注收藏后评论区留言私信~~~

基于值函数优化策略的方法是先求得值函数,然后通过值函数来求得最优策略。相应地,该类算法的迭代过程可分为策略评估阶段和策略改进阶段。

在策略评估阶段,算法基于当前策略来求得值函数;在策略改进阶段,算法利用当前值函数来更新策略。

动态规划法

1:策略迭代算法

状态值函数V_π(s)可以看作动作值函数Q_π(s,a)在状态处于s时关于动作a的数学期望:

π(a│s)是概率表示的策略,也是Q_π(s,a)发生的概率值。

同样地,动作值函数Q_π(s,a)可以看作在状态s执行了动作a后,进入到下一状态s^′的立即回报r^′与下一状态的状态值函数的折扣γV_π(s^′)之和的数学期望:

式中,P_ss^′^a是状态转移概率,也是r^′+γV_π(s^′)发生的概率。

代入

可得:

称为状态值函数的贝尔曼期望方程。

在五元组〈S,A,P,R,γ〉和策略π(a│s)均为已知的条件下,根据状态值函数的贝尔曼期望方程,可列出由|S|个独立方程组成的方程组。

其中只有|S|个未知数V_π(s),因此,可以求解得到在确定策略π时每个状态值函数的值。

可完成基于值函数求解算法中的策略评估任务。

冰湖问题中,假定当前要评估的策略是在所有状态s都执行向左的动作:

π(0│s)=1, π(1│s)=π(2│s)=π(3│s)=0

根据环境模型,执行向左的动作时,状态0只可能转移到状态0、状态0和状态4,不可能到达终点G,因此,R_0^a=0。

根据V_π(s)=∑_a∈A▒[π(a│s)(R_s^a+γ∑_s^′∈S▒P_ss^′^aV_π(s^′))]和主体在冰面上的移动规则,在状态0,可得:

同样地,在其他每个状态都可得到一个独立的方程。将这些方程联立,得到方程组,可以求得各状态的状态值。

利用计算机对方程组的求解,仍然采用迭代法,其迭代关系式为:

其中,上标k表示迭代的轮数,并初始化V_π^0(s)=0。

s^′是s的下一状态,因此,状态值的求解是通过从未来到现在的反向迭代来进行计算的。

在策略改进阶段,要根据指定策略π时各状态值函数V_π(s),采用贪心策略来对强化学习主体的策略进行优化。

根据动作值函数与状态值函数的关系式Q_π(s,a)=∑_s^′∈S▒P_ss^′^a(r^′+γV_π(s^′)),可求得动作值函数Q_π(s,a)。 因此,在策略改进阶段,基于贪心策略依据下式来得到新策略π^′(s):

策略迭代法流程图如下

实际运行效果如下

部分代码如下

n_states = 16 # 状态空间的大小
n_actions = 4 # 动作空间的大小
# 对确定性策略pi进行评估,即计算状态值函数
def policy_evaluation(pi, gamma=1.0):
    V_table = np.zeros(n_states) # 状态值函数表
    threshold = 1e-10 # 收敛判断阈值
    while True:
        pre_V_table = np.copy(V_table)
        for s in range(n_states):
            = sum([ trans_prob * (r + gamma*pre_V_table[next_s])
                            for trans_prob, next_s, r, done in env.P[s][a]])# 环境模型,存储状态s下采取动作a得到的状态转移概率,下一步状态,回报,完成标志
        if (np.sum((np.fabs(pre_V_table - V_table))) <= threshold): # 是否收敛
            break
    return V_table
# 基于新的状态值函数对策略进行改进
def police_improvement(v_table, gamma=1.0):
    pi = np.zeros(n_states)
    for s ge(n_actions):
            for next_sr in env.P[s][a]: # 环境模型,存储状态s下采取动作a得到的状态转移概率,下一步状态,回报,完成标志
                trans_prob, next_s, r, done = next_sr
                Q_table[a] += (trans_prob * (r + gamma*v_table[next_s]))
        pi[s] = np.argmax(Q_table) # 贪心策略
    return pi
# 策略迭代
def policy_iteration(gamma=1.0):
    pi = np.zeros(n_states) # 0初始化策略
provement(V_table, gamma)
        i += 1
        #print("迭代次数:", i, "\n\tV_table:", V_table, "\n\tpi:", new_pi)
        if (np.all(pi == new_pi)): break # 是否收敛
        pi = new_pi
    return pi

2:值迭代算法

在策略迭代算法中,在一个迭代周期里,通过计算动作值函数的数学期望来更新状态值函数,而在所谓的值迭代算法中,则是直接取最大动作值函数来更新状态值函数:

与策略迭代算法不同的是,值迭代每次迭代只进行策略评估。当状态值函数收敛后,再进行一次策略改进即可。

流程图如下

# 值迭代
def value_itration(env, gamma=1.0):
    V_table = np.zeros(n_states)
    n_iterations = 10000
    threshold = 1e-10
    for i in range(n_iterations):
        pre_V_table = np.copy(V_table)
        for s in range(n_states):
            Q = [] # 状态s的Q值
            for a in range(n_actions):
                next_s_prob_rewards = [] # 到下一状态的转移概率乘以下一状态的累积回报
                for next_sr in env.P[s][a]:
                    trans_prob, next_s, r, done = next_sr
                    next_s_prob_rewards.append( ( trans_prob * ( r + gamma*pre_V_table[next_s] ) ) ) # 式8-31
                    Q.append( np.sum( next_s_prob_rewards ) )
                    V_table[s] = max(Q)
        if( np.sum( np.fabs( pre_V_table - V_table ) ) <= threshold ): break
    return V_table
best_V_table = value_itration(env=env, gamma=1.0)
print("最优状态值函数:", best_V_table)
best_pi = police_improvement(best_V_table, gamma=1.0)
print("值迭代算法计算最优策略:", best_pi)

 

定义所有策略中最大的状态值函数为最优状态值函数V^∗(s): V^∗(s)=max┬πV_π(s) 同样,可以定义所有策略中最大的动作值函数为最优动作值函数Q^∗(s,a): Q^∗(s,a)=max┬πQ_π(s,a) 当采用最优状态值函数时,状态值函数贝尔曼方程称为贝尔曼最优方程,写为:

在冰湖问题中实际运行结果如下

部分代码如下

 

# 值迭代
def value_itration(env, gamma=1.0):
    V_table = np.zeros(n_states)
    n_iterations = 10000
    threshold = 1e-10
    for i in range(n_iterations):
        pre_V_table = np.copy(V_table)
        for s in range(n_states):
            Q = [] # 状态s的Q值
            for a in range(n_actions):
                next_s_prob_rewards = [] # 到下一状态的转移概率乘以下一状态的累积回报
                for next_sr in env.P[s][a]:
                    trans_prob, next_s, r, done = next_sr
             ( pre_V_table - V_table ) ) <= threshold ): break
    return V_table
best_V_table = value_itration(env=env, gamma=1.0)
print("最优状态值函数:", best_V_table)
best_pi = police_improvement(best_V_table, gamma=1.0)
print("值迭代算法计算最优策略:", best_pi)

创作不易 觉得有帮助请点赞关注收藏~~~

相关文章
|
7月前
|
存储 算法 调度
【复现】【遗传算法】考虑储能和可再生能源消纳责任制的售电公司购售电策略(Python代码实现)
【复现】【遗传算法】考虑储能和可再生能源消纳责任制的售电公司购售电策略(Python代码实现)
339 26
|
7月前
|
机器学习/深度学习 算法 调度
基于多动作深度强化学习的柔性车间调度研究(Python代码实现)
基于多动作深度强化学习的柔性车间调度研究(Python代码实现)
357 1
|
7月前
|
人工智能 数据安全/隐私保护 异构计算
桌面版exe安装和Python命令行安装2种方法详细讲解图片去水印AI源码私有化部署Lama-Cleaner安装使用方法-优雅草卓伊凡
桌面版exe安装和Python命令行安装2种方法详细讲解图片去水印AI源码私有化部署Lama-Cleaner安装使用方法-优雅草卓伊凡
1074 8
桌面版exe安装和Python命令行安装2种方法详细讲解图片去水印AI源码私有化部署Lama-Cleaner安装使用方法-优雅草卓伊凡
|
7月前
|
机器学习/深度学习 算法 安全
【强化学习应用(八)】基于Q-learning的无人机物流路径规划研究(Python代码实现)
【强化学习应用(八)】基于Q-learning的无人机物流路径规划研究(Python代码实现)
546 6
|
7月前
|
机器学习/深度学习 数据采集 算法
基于mediapipe深度学习的运动人体姿态提取系统python源码
本内容介绍了基于Mediapipe的人体姿态提取算法。包含算法运行效果图、软件版本说明、核心代码及详细理论解析。Mediapipe通过预训练模型检测人体关键点,并利用部分亲和场(PAFs)构建姿态骨架,具有模块化架构,支持高效灵活的数据处理流程。
|
7月前
|
小程序 PHP 图形学
热门小游戏源码(Python+PHP)下载-微信小程序游戏源码Unity发实战指南​
本文详解如何结合Python、PHP与Unity开发并部署小游戏至微信小程序。涵盖技术选型、Pygame实战、PHP后端对接、Unity转换适配及性能优化,提供从原型到发布的完整指南,助力开发者快速上手并发布游戏。
|
7月前
|
数据采集 Web App开发 前端开发
处理动态Token:Python爬虫应对AJAX授权请求的策略
处理动态Token:Python爬虫应对AJAX授权请求的策略
|
8月前
|
机器学习/深度学习 算法 调度
【EI复现】基于深度强化学习的微能源网能量管理与优化策略研究(Python代码实现)
【EI复现】基于深度强化学习的微能源网能量管理与优化策略研究(Python代码实现)
334 0
|
算法 Python 设计模式
python设计模式(二十二):策略模式
策略模式,让一个类的行为或其算法可以在运行时更改,策略是让实例化对象动态的更改自身的某些方法使用的是types.MethodType绑定。 说起策略的动态更改方法,就不得不对比一下元类的动态增加方法,元类是类的抽象,它负责一个抽象类创建、实例化,是通过type函数来绑定方法。
1516 0
|
7月前
|
数据采集 机器学习/深度学习 人工智能
Python:现代编程的首选语言
Python:现代编程的首选语言
1040 102

推荐镜像

更多