m基于GRNN神经网络和高阶累积量的信号类型识别matlab仿真

本文涉及的产品
简介: m基于GRNN神经网络和高阶累积量的信号类型识别matlab仿真

1.算法描述

 GRNN,即General Regression Neural Network,中文全称为广义回归神经网络,是由The Lockheed Palo Alto研究实验室在1991年提出的。GRNN是一种新型的基于非线性回归理论的神经网络模型。GRNN是建立在非参数核回归基础之上的,该神经网络是以测试样本为后验条件,并从观测样本中计算得到自变量和因变量之间的概率密度函数,然后在计算出因变量关于自变量的回归值。由于GRNN不需要规定模型的类型,只需要设置神经网络的光滑因子参数,GRNN神经网络的光滑因子参数的取值对神经网络的输出影响较大,当光滑因子参数较大的时候,其对应的神经元所覆盖的输入区域就越大;当光滑因子参数较小的时候,神经网络对应的径向基函数曲线较陡,因此神经网络输出结果更接近期望值,但此时光滑度越差。由于GRNN广义回归神经网络是基于非线性核回归分析的神经网络,因此,对于任意一个非独立变量y,其相对于独立变量x的回归分析的过程是计算具有最大概率值y。现假设随机变量x和y的联合概率密度函数为f (x ,y),已知x的观测值为X,则y相对于X的回归,即条件均值为:

f6f3d16ae7ef26190c46737cb61492cf_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png
397286f1995887d22f88f45a75ad6d83_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png
9d83460edfc3262e58a63a5eecb5687f_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png

    从图3的结构图可知,GRNN神经网络的输入层神经元数目和输入样本的维度是相同的,即每一个神经元将输入信号直接传递给GRNN神经网络的隐含层中。GRNN神经网络的模式层的神经元数目和学习训练样本的数目相同,即每一个神经元都分别对应着一个不同的学习训练样本.

   特征提取:

1f020f57c1ce90d4151a56128e625039_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png
image.png

   高阶统计量,通常是指信号的高阶矩,高阶累积量等信号统计信息的统称。在这些高阶统计量中,高阶累积量具有十分重要的重用,不同阶数的累积量可以反映出信号的不同特征,因此高阶累积量往往应用在信号分类,信号调制方式识别等领域。高阶累积量中的二阶累积量和四阶累积量可以有效抑制高斯白噪声的干扰,且对相位偏移具有一定的容错能力,其数学表达式为: 

6.png
7.png

第一、研究了基于高阶累积量的信噪比盲估计法和基于信号子空间信噪比盲估计法的基本原理。其中,高阶累积量的原理是通过计算信号矩的方式获得信号能量与噪声能量的估计值。信号子空间法的原理是通过对信号协方差矩阵的分解来分离信号与噪声,从而得到信号的信噪比估计值。

第二、通过MATLAB对高阶累积量信噪比估计法与信号子空间信噪比估计法进行了性能分析。分别分析了高阶累积量信噪比估计法与信号子空间信噪比估计法的性能、输入信号长度对信噪比估计结果的影响分析、不同采样频率对信噪比估计结果的影响分析、不同频偏对信噪比估计结果的影响分析、定时误差对信噪比估计结果的影响分析。仿真实验表明信号子空间信噪比估计法性能优于高阶累积量信噪比估计法。

2.仿真效果预览
matlab2022a仿真结果如下:

8373a0fa3103dafdf59172b26791b768_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png
233b2f4cbbd2bf1ee97447800b373310_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png
image.png
aa236aec382c9d923fd2ffeace6d26e0_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png
23bf87ed7df5ce7c91b7051a6659d632_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png

从仿真结果可知,8个特征中,特征3,4,6,8,对整体的识别性能最好。

04ed28b2c10d107440f4e5ea6ed95d74_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png

从性能看,直接采用4个特征,性能不如8个特征好,这是由于,当采用四个特征的时候,无法反应实际信号的各个特点,而8个特征,则反应的比较全面,可以更好的区分不同类型的信号。

1a3125a2f3dd3e2ce25ef7f66263d614_watermark,size_14,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_20,type_ZmFuZ3poZW5naGVpdGk=.png

从仿真结果看,参数0.1的时候,性能可以达到最优。

3.MATLAB核心程序

SNRs = [5:1:12];
Err  = zeros(size(SNRs));
MTKL = 20;
for jj = 1:length(SNRs)
jj
SNR=SNRs(jj);
for ii = 1:MTKL
    rng(ii);
%%
%产生需要测试的无线信号
%1:WIFI
if SEL == 1
   Signal = func_wifi(SNR); 
end
%2:3G
if SEL == 2
   Signal = func_3G_mobile(SNR); 
end
%3:Fsk广播信号
if SEL == 3
   Signal = func_2FSK(5000);
end
%采样化处理
Fs      = 1e6;   %信号采样率
fc      = Fs/32;  %信号采样率
nsamp   = 32;    %过采样率
delay   = 16;    %根号下升余弦的群时延
dataout = RRCsend(Signal,Fs,nsamp,delay); 
%基于SDR的上变频
if SEL == 1 | SEL == 2
   R = real(dataout).*cos(2*pi*fc*[1:length(dataout)]/Fs) + imag(dataout).*sin(2*pi*fc*[1:length(dataout)]/Fs);
end
if SEL == 3
   R = dataout;
end
%通过噪声信道
dataout = awgn(R,SNR,'measured');
%%
%以下是SDR的接收平台
Rec     = dataout;
%特征提取
char    = real(func_para_check(real(Rec),Fs,fc));
%识别
load Grnn.mat
T(ii) = round(sim(Net,char'));
end
Err(jj) = length(find(T==SEL))/MTKL;
end
相关实践学习
基于函数计算一键部署掌上游戏机
本场景介绍如何使用阿里云计算服务命令快速搭建一个掌上游戏机。
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
相关文章
|
3天前
|
机器学习/深度学习 Python
【Python实战】——神经网络识别手写数字(三)
【Python实战】——神经网络识别手写数字
|
3天前
|
机器学习/深度学习 数据可视化 Python
【Python实战】——神经网络识别手写数字(二)
【Python实战】——神经网络识别手写数字(三)
|
1天前
|
算法
MATLAB|【免费】融合正余弦和柯西变异的麻雀优化算法SCSSA-CNN-BiLSTM双向长短期记忆网络预测模型
这段内容介绍了一个使用改进的麻雀搜索算法优化CNN-BiLSTM模型进行多输入单输出预测的程序。程序通过融合正余弦和柯西变异提升算法性能,主要优化学习率、正则化参数及BiLSTM的隐层神经元数量。它利用一段简单的风速数据进行演示,对比了改进算法与粒子群、灰狼算法的优化效果。代码包括数据导入、预处理和模型构建部分,并展示了优化前后的效果。建议使用高版本MATLAB运行。
|
3天前
|
机器学习/深度学习 数据可视化 Python
【Python实战】——神经网络识别手写数字(一)
【Python实战】——神经网络识别手写数字
|
3天前
|
机器学习/深度学习 并行计算 算法
MATLAB|【免费】概率神经网络的分类预测--基于PNN的变压器故障诊断
MATLAB|【免费】概率神经网络的分类预测--基于PNN的变压器故障诊断
基于混沌集成决策树的电能质量复合扰动识别(matlab代码)
基于混沌集成决策树的电能质量复合扰动识别(matlab代码)
|
3天前
|
调度
含多类型充电桩的电动汽车充电站优化配置方法(matlab代码)
含多类型充电桩的电动汽车充电站优化配置方法(matlab代码)
|
3天前
|
机器学习/深度学习 存储 算法
m基于Yolov2深度学习网络的螺丝检测系统matlab仿真,带GUI界面
MATLAB 2022a中展示了YOLOv2算法的螺丝检测仿真结果,该系统基于深度学习的YOLOv2网络,有效检测和定位图像中的螺丝。YOLOv2通过批标准化、高分辨率分类器等优化实现速度和精度提升。核心代码部分涉及设置训练和测试数据,调整图像大小,加载预训练模型,构建YOLOv2网络并进行训练,最终保存检测器模型。
25 3
|
3天前
|
机器学习/深度学习 算法 数据可视化
基于深度学习网络的鞋子种类识别matlab仿真
使用GoogLeNet深度学习模型在matlab2022a中进行鞋子种类识别,利用Inception模块捕捉多尺度特征,提升分类精度。程序加载预训练模型`gnet.mat`,计算验证集的准确性并随机显示32个样本的预测结果及置信度。
|
3天前
|
机器学习/深度学习 算法
基于深度学习网络的十二生肖图像分类matlab仿真
该内容是关于使用GoogLeNet算法进行十二生肖图像分类的总结。在MATLAB2022a环境下,GoogLeNet通过Inception模块学习高层语义特征,处理不同尺寸的输入。核心程序展示了验证集上部分图像的预测标签和置信度,以4x4网格显示16张图像,每张附带预测类别和概率。

热门文章

最新文章