基于Qlearning强化学习的倒立摆控制系统matlab仿真

简介: 基于Qlearning强化学习的倒立摆控制系统matlab仿真

1.算法描述

    强化学习通常包括两个实体agent和environment。两个实体的交互如下,在environment的statestst下,agent采取actionatat进而得到rewardrtrt 并进入statest+1st+1。Q-learning的核心是Q-table。Q-table的行和列分别表示state和action的值,Q-table的值Q(s,a)Q(s,a)衡量当前states采取actiona到底有多好。

1.png

    在每一时刻,智能体观测环境的当下状态并选择一个动作,这会导致环境转移到一个新的状态,与此同时环境会返回给智能体一个奖励,该奖励反映了动作所导致的结果。在倒立摆任务中,每一个时间步的奖励均为+1,但是一旦小车偏离中心超过4.8个单位或者杆的倾斜超过15度,任务就会终止。因此,我们的目标是使得该任务能够尽可能地运行得更久,以便获得更多的收益。原始倒立摆任务中,智能体的输入包含4个实数(位置,速度等),但实际上,神经网络可以直接通过观察场景来完成任务,所以我们可以直接使用以小车为中心的屏幕补丁作为输入。严格来说,我们设计的状态是当前屏幕补丁与上一个屏幕补丁的差值,这使得智能体能够从一张图像中推断出杆的速度。

   为了训练DQN,我们将使用经验回放池(experience replay memory)来存储智能体所观测到的环境状态转移情况,在之后的训练中我们可以充分利用这些数据。通过对经验回放池中的数据进行随机采样,组成一个批次的转移情况是互不相关(decorrelated)的,这极大地提升了DQN训练的性能和稳定性。

主要步骤如下:

   采样得到一个批次的样本,将这些样本对应的张量连接成一个单独的张量;

分别利用策略Q网络与目标Q网络计算 与Q(st,at)​​​​与V(st+1)=maxaQ(st+1,a) ​​​​,利用它们计算损失函数.。另外,如果 s​​​​ 为终止状态,则令 V(s)=0 ​​​​
更新Q网络参数。目标Q网络的参数每隔一段时间从主Q网络处固定而来,在本例中,我们在每个episode更新一次目标Q网络。

2.仿真效果预览
matlab2022a仿真结果如下:

2.png

3.MATLAB部分代码预览

   count=0; 
   failure=0; 
   failReason=0; 
   lfts = 1; 
   newSt = inistate; 
   inputs = newSt./NF; 
   lc = Initlc; 
   la = Initla; 
        
   xhist=newSt; 
   
   %计算newAction 
   ha = inputs*wa1; 
   g = (1 - exp(-ha))./(1 + exp(-ha)); 
   va = g*wa2; 
   newAction = (1 - exp(-va))./(1 + exp(-va)); 
   %计算J 
   inp=[inputs newAction]; 
   qc=inp*wc1; 
   p = (1 - exp(-qc))./(1 + exp(-qc)); 
   J=p*wc2; 
    
   Jprev = J; 
   
   while(lfts<Tit),        %内部循环开始 
            
        if (rem(lfts,500)==0), 
           disp(['It is ' int2str(lfts) ' time steps now......']); 
        end 
         
        %生成控制信号 
               if (newAction >= 0) 
                   sgnf = 1; 
               else 
                   sgnf = -1; 
               end 
               u = Mag*sgnf;        %bang-bang control 

           %Plug in the model 
           [T,Xf]=ode45('cartpole_model',[0 tstep],newSt,[],u); 
           a=size(Xf); 
           newSt=Xf(a(1),:);         
           inputs=newSt./NF;    %input normalization    
            
               %计算newAction 
               ha = inputs*wa1; 
               g = (1 - exp(-ha))./(1 + exp(-ha)); 
               va = g*wa2; 
               newAction = (1 - exp(-va))./(1 + exp(-va)); 
               %calculate new J     
               inp=[inputs newAction]; 
               qc=inp*wc1; 
               p = (1 - exp(-qc))./(1 + exp(-qc)); 
               J=p*wc2; 
                
               xhist=[xhist;newSt]; 
            
           %%===========================================================%% 
           %%求取强化信号r(t),即reinf                                   %% 
           %%===========================================================%% 
         
           if (abs(newSt(1)) > FailTheta) 
               reinf = 1; 
               failure = 1; 
               failReason = 1; 
           elseif (abs(newSt(3)) > Boundary) 
               reinf = 1; 
               failure = 1; 
               failReason = 2; 
           else 
               reinf = 0; 
           end 
    
           %%================================%% 
           %% learning rate update scheme    %% 
           %%================================%% 
           
           if (rem(lfts,5)==0) 
               lc = lc - 0.05; 
               la = la - 0.05; 
           end 
          
             if (lc<0.01) 
               lc=0.005; 
           end 
          
           if (la<0.01) 
               la=0.005; 
           end 
          
           %%================================================%% 
           %% internal weights updating cycles for critnet   %% 
           %%================================================%% 
                   
           cyc = 0; 
           ecrit = alpha*J-(Jprev-reinf); 
           Ec = 0.5 * ecrit^2; 
           while (Ec>Tc & cyc<=Ncrit), 
                   gradEcJ=alpha*ecrit; 
                   %----for the first layer(input to hidden layer)----------- 
                   gradqwc1 = [inputs'; newAction]; 
                   for i=1:N_Hidden, 
                       gradJp = wc2(i); 
                       gradpq = 0.5*(1-p(i)^2); 
                       wc1(:,i) = wc1(:,i) - lc*gradEcJ*gradJp*gradpq*gradqwc1; 
                   end        
                   %----for the second layer(hidden layer to output)----------- 
                   gradJwc2=p'; 
                   wc2 = wc2- lc*gradEcJ*gradJwc2; 
                   %----compute new  J---- 
                   inp=[inputs newAction]; 
                   qc=inp*wc1; 
                   p = (1 - exp(-qc))./(1 + exp(-qc)); 
                   J=p*wc2; 

               cyc = cyc +1; 
               ecrit = alpha*J-(Jprev-reinf); 
               Ec = 0.5 * ecrit^2; 
           end                                 % end of "while (Ec>0.05 & cyc<=Ncrit)" 
            
           %normalization weights for critical network 
               if (max(max(abs(wc1)))>1.5) 
                   wc1=wc1/max(max(abs(wc1))); 
               end 
               if max(max(abs(wc2)))>1.5 
                   wc2=wc2/max(max(abs(wc2))); 
               end 
                     
           %%=============================================%% 
           %% internal weights updating cycles for actnet %% 
           %%=============================================%%                 
           cyc = 0;             
           eact = J - Uc; 
           Ea = 0.5*eact^2; 
           while (Ea>Ta & cyc<=Nact), 
               graduv = 0.5*(1-newAction^2);              
               gradEaJ = eact; 
               gradJu = 0; 
                  for i=1:N_Hidden, 
                      gradJu = gradJu + wc2(i)*0.5*(1-p(i)^2)*wc1(WC_Inputs,i); 
                  end 
                   %----for the first layer(input to hidden layer)----------- 
                   for (i=1:N_Hidden), 
                       gradvg = wa2(i); 
                       gradgh = 0.5*(1-g(i)^2); 
                       gradhwa1 = inputs'; 
                       wa1(:,i)=wa1(:,i)-la*gradEaJ*gradJu*graduv*gradvg*gradgh*gradhwa1; 
                   end 
                   %----for the second layer(hidden layer to output)----------- 
                   gradvwa2 = g'; 
                   wa2=wa2-la*gradEaJ*gradJu*graduv*gradvwa2; 
                   %----compute new J and newAction-------  
                   ha = inputs*wa1; 
                   g = (1 - exp(-ha))./(1 + exp(-ha)); 
                   va = g*wa2; 
                   newAction = (1 - exp(-va))./(1 + exp(-va)); 
                    
                   inp=[inputs newAction]; 
                   qc=inp*wc1; 
                   p = (1 - exp(-qc))./(1 + exp(-qc)); 
                   J=p*wc2; 
                        
               cyc = cyc+1; 
               eact = J - Uc; 
               Ea = 0.5*eact^2;   
           end                       %end of "while (Ea>Ta & cyc<=Nact)" 
           
           if ~failure 
               Jprev=J; 
           else 
               break;                %another trial 即跳出“while(lfts<Tit),” 
           end 
           lfts=lfts+1; 
       end                           %end of "while(lfts<Tit)" 结束内部循环 
          
       msgstr1=['Trial # ' int2str(trial) ' has  ' int2str(lfts) ' time steps.']; 
          msgstr21=['Trial # ' int2str(trial) ' has successfully balanced for at least ']; 
          msgstr22=[msgstr21 int2str(lfts) ' time steps ']; 
A_027
相关文章
|
4天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
117 80
|
2天前
|
算法 图形学
三维球体空间中光线反射模拟与三维点云提取matlab仿真
本项目使用MATLAB2022A模拟三维椭球体内光线反射并提取三维点云。通过设置椭球模型作为墙壁,根据几何光学原理计算光线在曲面上的反射路径,记录每次反射点坐标,生成三维点云图。核心代码实现多次反射的循环计算与绘图,并展示反射点的位置变化及其平滑处理结果。最终,通过光线追踪技术模拟真实场景中的光线行为,生成精确的三维点云数据,适用于计算机图形学和光学仿真领域。
|
2天前
|
机器学习/深度学习 算法 数据安全/隐私保护
数据链中常见电磁干扰matlab仿真,对比噪声调频,线性调频,噪声,扫频,灵巧五种干扰模型
本项目展示了用于分析和模拟电磁干扰对数据链系统影响的算法。通过Matlab 2022a运行,提供无水印效果图预览。完整代码包含详细中文注释及操作视频。理论部分涵盖五种常见干扰模型:噪声调频、线性调频、噪声、扫频和灵巧干扰,详细介绍其原理并进行对比分析。灵巧干扰采用智能技术如认知无线电和机器学习,自适应调整干扰策略以优化效果。
|
4天前
|
监控 算法 数据安全/隐私保护
基于扩频解扩+turbo译码的64QAM图传通信系统matlab误码率仿真,扩频参数可设置
该通信系统基于MATLAB 2022a仿真,适用于高要求的图像传输场景(如无人机、视频监控等),采用64QAM调制解调、扩频技术和Turbo译码提高抗干扰能力。发射端包括图像源、64QAM调制器、扩频器等;接收端则有解扩器、64QAM解调器和Turbo译码器等。核心程序实现图像传输的编码、调制、信道传输及解码,确保图像质量和传输可靠性。
31 16
|
1天前
|
机器学习/深度学习 算法 索引
单目标问题的烟花优化算法求解matlab仿真,对比PSO和GA
本项目使用FW烟花优化算法求解单目标问题,并在MATLAB2022A中实现仿真,对比PSO和GA的性能。核心代码展示了适应度计算、火花生成及位置约束等关键步骤。最终通过收敛曲线对比三种算法的优化效果。烟花优化算法模拟烟花爆炸过程,探索搜索空间,寻找全局最优解,适用于复杂非线性问题。PSO和GA则分别适合快速收敛和大解空间的问题。参数调整和算法特性分析显示了各自的优势与局限。
|
3天前
|
编解码 算法 数据安全/隐私保护
基于BP译码的LDPC误码率matlab仿真,分析不同码长,码率,迭代次数以及信道类型对译码性能的影响
本内容介绍基于MATLAB 2022a的低密度奇偶校验码(LDPC)仿真,展示了完整的无水印仿真结果。LDPC是一种逼近香农限的信道编码技术,广泛应用于现代通信系统。BP译码算法通过Tanner图上的消息传递实现高效译码。仿真程序涵盖了不同Eb/N0下的误码率计算,并分析了码长、码率、迭代次数和信道类型对译码性能的影响。核心代码实现了LDPC编码、BPSK调制、高斯信道传输及BP译码过程,最终绘制误码率曲线并保存数据。 字符数:239
34 5
|
3天前
|
算法
基于EO平衡优化器算法的目标函数最优值求解matlab仿真
本程序基于进化优化(EO)中的平衡优化器算法,在MATLAB2022A上实现九个测试函数的最优值求解及优化收敛曲线仿真。平衡优化器通过模拟生态系统平衡机制,动态调整搜索参数,确保种群多样性与收敛性的平衡,高效搜索全局或近全局最优解。程序核心为平衡优化算法,结合粒子群优化思想,引入动态调整策略,促进快速探索与有效利用解空间。
|
4月前
|
安全
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
本文介绍了2023年高教社杯数学建模竞赛D题的圈养湖羊空间利用率问题,包括问题分析、数学模型建立和MATLAB代码实现,旨在优化养殖场的生产计划和空间利用效率。
232 6
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
|
4月前
|
存储 算法 搜索推荐
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
本文提供了2022年华为杯数学建模竞赛B题的详细方案和MATLAB代码实现,包括方形件组批优化问题和排样优化问题,以及相关数学模型的建立和求解方法。
143 3
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
|
4月前
|
数据采集 存储 移动开发
【2023五一杯数学建模】 B题 快递需求分析问题 建模方案及MATLAB实现代码
本文介绍了2023年五一杯数学建模竞赛B题的解题方法,详细阐述了如何通过数学建模和MATLAB编程来分析快递需求、预测运输数量、优化运输成本,并估计固定和非固定需求,提供了完整的建模方案和代码实现。
111 0
【2023五一杯数学建模】 B题 快递需求分析问题 建模方案及MATLAB实现代码

热门文章

最新文章