基于matlab的强化学习QLearning路径规划性能仿真

简介: 基于matlab的强化学习QLearning路径规划性能仿真

1.算法概述

1.png

   假设我们的行为准则已经学习好了, 现在我们处于状态s1, 我在写作业, 我有两个行为 a1, a2, 分别是看电视和写作业, 根据我的经验, 在这种 s1 状态下, a2 写作业 带来的潜在奖励要比 a1 看电视高, 这里的潜在奖励我们可以用一个有关于 s 和 a 的 Q 表格代替, 在我的记忆Q表格中, Q(s1, a1)=-2 要小于 Q(s1, a2)=1, 所以我们判断要选择 a2 作为下一个行为. 现在我们的状态更新成 s2 , 我们还是有两个同样的选择, 重复上面的过程, 在行为准则Q 表中寻找 Q(s2, a1) Q(s2, a2) 的值, 并比较他们的大小, 选取较大的一个. 接着根据 a2 我们到达 s3 并在此重复上面的决策过程. Q learning 的方法也就是这样决策的. 看完决策, 我看在来研究一下这张行为准则 Q 表是通过什么样的方式更改, 提升的.

   Q-Learning​它是强化学习中的一种 values-based 算法,​是以QTable表格形式体现​,在学习中遇到的任何操作存入QTable中,根据之前的学习选择当前最优操作,也可以根据设置的e_greedy机率随机选择。​

   ​Q-Learning的QTable标签更新公式:

2.png

Q-Learning的计算步骤:​

​1.判断在当前位置可以有几种操作;​

​2.根据当前位置允许的操作选择一个操作;​

​3.根据选择的操作进行奖赏;​

​4.修改当前行为的本次操作权重;

2.仿真效果预览
matlab2022a仿真测试如下:

3.png
4.png
5.png

3.核心MATLAB代码预览

for i=1:pathtimes
    i
    Positions = stpt;   
    drivers   = 0;   %开车
    E         = zeros(prod([driver_actions Xscale Yscale]),1);
 
    for j=1:maxiter
        %计算训练驾驶策略
        if j>=2   
           Choice      = ndi2lin([1 Positions(1) Positions(2)],[driver_actions Xscale Yscale]);
           Choice2     = ndi2lin([drivers Prestate(1) Prestate(2)],[driver_actions Xscale Yscale]);
           delta       = feedback + cb*max(NNPolicy(Choice:Choice+driver_actions-1))-NNPolicy(Choice2);
            E(Choice2) = 1;
            NNPolicy   = NNPolicy + ca*delta*E;
            E          = cb*lambda*E*~exploring;
        end
        %选择动作
        Choice  = ndi2lin([1 Positions(1) Positions(2)],[driver_actions Xscale Yscale]); 
        Choice  = [Choice:Choice+driver_actions-1];                              
        tmps    = find(NNPolicy(Choice) == max(NNPolicy(Choice)));   
        %是否转向        
        drivers = tmps(ceil(rand * length(tmps)));   
        %探索策略
        if rand<LR
           drivers=floor(rand*driver_actions)+1;    
           exploring = 1;
        else 
           exploring = 0;
        end
        LR=LR/pathtimes;
        
        Prestate=Positions;
        [Positions,feedback] = nomancar(Positions,drivers,driver_direction,map_route,Xscale,Yscale);
        if edpt(1)==Positions(1) & edpt(2)==Positions(2)
           break
        end  
    end
 
    Itertion_times(k)=j;
    if k>32
       Error(k)=mean(Itertion_times(length(Itertion_times)-32+1:length(Itertion_times))); 
    else
       Error(k)=mean(Itertion_times(1:length(Itertion_times))); 
    end
    k=k+1;
end
A_005
相关文章
|
4天前
|
算法 数据安全/隐私保护 计算机视觉
基于二维CS-SCHT变换和LABS方法的水印嵌入和提取算法matlab仿真
该内容包括一个算法的运行展示和详细步骤,使用了MATLAB2022a。算法涉及水印嵌入和提取,利用LAB色彩空间可能用于隐藏水印。水印通过二维CS-SCHT变换、低频系数处理和特定解码策略来提取。代码段展示了水印置乱、图像处理(如噪声、旋转、剪切等攻击)以及水印的逆置乱和提取过程。最后,计算并保存了比特率,用于评估水印的稳健性。
|
1天前
|
数据可视化 算法
MATLAB Simulink 交交变流电路性能研究
MATLAB Simulink 交交变流电路性能研究
7 2
|
1天前
|
数据可视化 算法
MATLAB Simulink 直流斩波电路性能研究
MATLAB Simulink 直流斩波电路性能研究
8 1
|
1天前
|
数据可视化 算法
MATLAB Simulink 逆变电路性能研究
MATLAB Simulink 逆变电路性能研究
7 1
|
1天前
|
数据可视化 算法
MATLAB Simulink 三相整流电路性能研究
MATLAB Simulink 三相整流电路性能研究
7 1
|
1天前
|
数据可视化 算法
MATLAB Simulink 单相桥式整流电路性能研究
MATLAB Simulink 单相桥式整流电路性能研究
6 2
|
1天前
|
数据可视化 算法
MATLAB Simulink 单相半波可控整流电路性能研究
MATLAB Simulink 单相半波可控整流电路性能研究
7 2
|
1天前
|
算法 计算机视觉
基于高斯混合模型的视频背景提取和人员跟踪算法matlab仿真
该内容是关于使用MATLAB2013B实现基于高斯混合模型(GMM)的视频背景提取和人员跟踪算法。算法通过GMM建立背景模型,新帧与模型比较,提取前景并进行人员跟踪。文章附有程序代码示例,展示从读取视频到结果显示的流程。最后,结果保存在Result.mat文件中。
|
1天前
|
资源调度 算法 块存储
m基于遗传优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了遗传优化的LDPC码OSD译码算法,通过自动搜索最佳偏移参数ΔΔ以提升纠错性能。该算法结合了低密度奇偶校验码和有序统计译码理论,利用遗传算法进行全局优化,避免手动调整,提高译码效率。核心程序包括编码、调制、AWGN信道模拟及软输入软输出译码等步骤,通过仿真曲线展示了不同SNR下的误码率性能。
7 1
|
5天前
|
存储 算法 数据可视化
基于harris角点和RANSAC算法的图像拼接matlab仿真
本文介绍了使用MATLAB2022a进行图像拼接的流程,涉及Harris角点检测和RANSAC算法。Harris角点检测寻找图像中局部曲率变化显著的点,RANSAC则用于排除噪声和异常点,找到最佳匹配。核心程序包括自定义的Harris角点计算函数,RANSAC参数设置,以及匹配点的可视化和仿射变换矩阵计算,最终生成全景图像。

热门文章

最新文章