基于小脑模型神经网络的轨迹跟踪研究(Matlab代码实现)

简介: 基于小脑模型神经网络的轨迹跟踪研究(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥


🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。


⛳️座右铭:行百里者,半于九十。


📋📋📋本文目录如下:🎁🎁🎁


目录


💥1 概述


📚2 运行结果


🎉3 参考文献


🌈4 Matlab代码实现


💥1 概述

(1) 在对人类神经学的研究中,得知它由一些神经元覆盖组成。在这项研究的基础上,Albus J.S.于1975年根据神经生理学小脑皮层结构特点提出了一种小脑模型关联控制器,经过多年的完善和发展,形成了成熟的小脑模型神经网络理论(Cerebellar Model Articulation Controller—CMAC)。

(2) CMAC是一种查表型自适应神经网络,它可以准确地描述出非线性函数的特征,同时,具有学习功能,可依据学习结果改变表格内容,对信息可区分存储。顾名思义,它具有人类小脑一般学习的功能,在多维度空间中进行映射,解决了输入端到输出端非线性的问题。

(3) CMAC是一种局部逼近神经网络,它具有一种联想记忆的功能,它的每一个神经元的输入输出是一种线性关系,但总体上是一种表达非线性映射的表格系统。


📚2 运行结果


980cbbebacff41f59aec9cbe1f21f357.png


部分代码:

%% 概念映射与实际映射
for i=1:1:c
    s(k,i)=round((u(k)-xmin)*M/(xmax-xmin))+i;   %Quantity:U-->AC
    ad(i)=mod(s(k,i),N)+1;          %Hash transfer:AC-->AP
end
sum=0;
for i=1:1:c
   sum=sum+w(ad(i));
end
%% 输出层
yn(k)=sum;
y(k)=u_1^3+y_1/(1+y_1^2);   %Nonlinear model
%% 跟踪误差
error(k)=y(k)-yn(k);
%% 权重调整
for i=1:1:c
  ad(i)=mod(s(k,i),N)+1;
  j=ad(i);
  d_w(j)=xite*error(k);
  w(j)=w_1(j)+d_w(j)+alfa*(w_1(j)-w_2(j));
end
%% 迭代更新
%%%% Parameters Update %%%%


🎉3 参考文献

部分理论来源于网络,如有侵权请联系删除。


[1]刘慧,许晓鸣,张钟俊.小脑神经网络反馈学习控制系统[J].上海交通大学学报,1996(04):114-118.DOI:10.16183/j.cnki.jsjtu.1996.04.020.


[2]何翠,刘媛.移动机器人轨迹跟踪控制模型的研究与设计[J].机械研究与应用,2023,36(02):47-51+57.DOI:10.16576/j.ISSN.1007-4414.2023.02.013.


🌈4 Matlab代码实现


目录
打赏
0
0
0
0
78
分享
相关文章
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
61 3
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV2,含模型详解和完整配置步骤
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV2,含模型详解和完整配置步骤
70 1
RT-DETR改进策略【模型轻量化】| 替换骨干网络为MoblieNetV2,含模型详解和完整配置步骤
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v1 高效的移动倒置瓶颈结构
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v1 高效的移动倒置瓶颈结构
137 0
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v1 高效的移动倒置瓶颈结构
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2023 FasterNet 高效快速的部分卷积块
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2023 FasterNet 高效快速的部分卷积块
88 0
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2023 FasterNet 高效快速的部分卷积块
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2024 RepViT 轻量级的Vision Transformers架构
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2024 RepViT 轻量级的Vision Transformers架构
108 0
RT-DETR改进策略【模型轻量化】| 替换骨干网络 CVPR-2024 RepViT 轻量级的Vision Transformers架构
|
2月前
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
77 2
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 GhostNet V3 2024华为的重参数轻量化模型
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
47 1
RT-DETR改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
RT-DETR改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
76 0
RT-DETR改进策略【模型轻量化】| PP-LCNet:轻量级的CPU卷积神经网络
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 ICCV 2023的EfficientViT 用于高分辨率密集预测的多尺度线性关注
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 ICCV 2023的EfficientViT 用于高分辨率密集预测的多尺度线性关注
64 0
RT-DETR改进策略【模型轻量化】| 替换骨干网络为 ICCV 2023的EfficientViT 用于高分辨率密集预测的多尺度线性关注
RT-DETR改进策略【模型轻量化】| 替换华为的极简主义骨干网络:VanillaNet
RT-DETR改进策略【模型轻量化】| 替换华为的极简主义骨干网络:VanillaNet
81 0

热门文章

最新文章