m基于深度学习的LTE信号检测算法matlab仿真

简介: m基于深度学习的LTE信号检测算法matlab仿真

1.算法描述

   随着射频设计者快速投入到支持长期演进( LTE )手机无线标准的新产品的开发过程中,理解LTE的测试需求变得更加重要,因为该技术已经越来越普遍。本文介绍了LTE的概念以及测试工程师面临的挑战。

  LTE是3GPP手机网络定义的下一代无线网络技术,允许运营商越过其他已有的无线接入技术提供同样的应用和服务,能实现非常高的数据率,为终端用户提供显著提升的用户体验。基于LTE的网络和基于正交频分复用(OFDM)并采用多输入多输出(MIMO)的传输方式,有时也称之为4G。

  测试挑战

  LTE测试有两个主要的挑战:从单载波到多载波的OFDM调制信号以及从SISO(单输入单输出)到MIMO的信号传输流。

  OFDM信号有多个子载波,互相之间精确排列并占用较宽的带宽(达到20MHz),较大多数射频工程师熟悉的传统单载波信号更加复杂。从各个方面测量这些信号对于确认无线电通信的正确工作并在出问题时快速诊断出问题所在区域非常重要。例如,测量在整个频道内每个子载波的调制质量,即EVM(误差向量幅度)测量,可探测出放大器、滤波器、频率响应波形,或窄带干扰问题。简单地说,在覆盖整个传输帧的整个时间段内测量EVM分量,可探测出由放大器热效应、失效以及开关或频率引起的问题。

  OFDM信号较单载波信号具有更高的峰值-均值比(PAR),这增加了发送级功率放大器增益压缩引起误码的可能性。与WiMAX不同,LTE在移动设备中使用不同的调制方法(SC-FDMA)来进行补偿。但这增加了放大器的功率消耗,使基带处理变得更加复杂并最终造成更多功耗。

image.png

基于深度学习的方法,而不需要插入导频,直接进行检测。

image.png

   深度学习(英语:deep learning),是一个多层神经网络是一种机器学习方法。在深度学习出现之前,由于诸如局部最优解和梯度消失之类的技术问题,没有对具有四层或更多层的深度神经网络进行充分的训练,并且其性能也不佳。但是,近年来,Hinton等人通过研究多层神经网络,提高学习所需的计算机功能以及通过Web的开发促进培训数据的采购,使充分学习成为可能。结果,它显示出高性能,压倒了其他方法,解决了与语音,图像和自然语言有关的问题,并在2010年代流行。

    深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能(AI, Artificial Intelligence)。 
    深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。 
    深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。 
    深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。深度学习的概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。研究深度学习的动机在于建立模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本等。

2.仿真效果预览
matlab2022a仿真结果如下:

image.png
image.png
image.png
image.png

3.MATLAB核心程序

numTrainFiles               = 100;%设置每个类别的训练个数
[imdsTrain, imdsValidation] = splitEachLabel(imds, numTrainFiles, 'randomize');
 
%定义卷积神经网络的基础结构
layers = [
    imageInputLayer([128 14 3]);%注意,400,150为能量图的大小,不能改
    %第一个卷积层
    convolution2dLayer(3, 8, 'Padding', 'same');%第一个卷积层
    batchNormalizationLayer;
    reluLayer;
    maxPooling2dLayer(2, 'Stride', 2);
    
    %第二个卷积层
    convolution2dLayer(3, 16, 'padding', 'same');
    batchNormalizationLayer;
    reluLayer;
    maxPooling2dLayer(2, 'Stride', 2);
    
    %第3个卷积层
    convolution2dLayer(3, 16, 'padding', 'same');
    batchNormalizationLayer;
    reluLayer;
    maxPooling2dLayer(2, 'Stride', 2);
    
    %第4个卷积层
    convolution2dLayer(3, 16, 'padding', 'same');
    batchNormalizationLayer;
    reluLayer;
    
    %全连接层1
    fullyConnectedLayer(2);
    %全连接层2
    fullyConnectedLayer(2);
    %softmax
    softmaxLayer;
    %输出分类结果
    classificationLayer;];
 
%设置训练参数
options = trainingOptions('adam', ...
    'InitialLearnRate', 0.0005, ...
    'MaxEpochs', 500, ...
    'Shuffle', 'every-epoch', ...
    'ValidationData', imdsValidation, ...
    'ValidationFrequency', 10, ...
    'Verbose', false, ...
    'Plots', 'training-progress');
 
%使用训练集训练网络
net         = trainNetwork(imdsTrain, layers, options);
 
%对验证图像进行分类并计算精度
YPred       = classify(net, imdsValidation);
YValidation = imdsValidation.Labels;
 
accuracy    = 100*sum(YPred == YValidation) / numel(YValidation)
相关文章
|
16小时前
|
算法 机器人 vr&ar
基于双目RGB图像和图像深度信息的三维室内场景建模matlab仿真
基于双目RGB图像和图像深度信息的三维室内场景建模matlab仿真
|
16小时前
|
编解码 算法
m基于码率兼容打孔LDPC码nms最小和译码算法的LDPC编译码matlab误码率仿真
m基于码率兼容打孔LDPC码nms最小和译码算法的LDPC编译码matlab误码率仿真
5 0
|
1天前
|
机器学习/深度学习 算法
【MATLAB】EMD_MFE_SVM_LSTM神经网络时序预测算法
【MATLAB】EMD_MFE_SVM_LSTM神经网络时序预测算法
13 1
|
1天前
|
机器学习/深度学习 数据采集 算法
基于yolov2深度学习网络的血细胞检测算法matlab仿真
基于yolov2深度学习网络的血细胞检测算法matlab仿真
|
1天前
|
存储 编解码 算法
基于huffman编解码的图像压缩算法matlab仿真
基于huffman编解码的图像压缩算法matlab仿真
|
2天前
|
算法
基于EMD的滚动轴承故障诊断算法matlab仿真
基于EMD的滚动轴承故障诊断算法matlab仿真
|
2天前
|
算法 jenkins 持续交付
【MATLAB 】 EEMD-ARIMA联合时序预测算法,科研创新优选算法
【MATLAB 】 EEMD-ARIMA联合时序预测算法,科研创新优选算法
16 0
|
2天前
|
算法 jenkins 持续交付
【MATLAB 】 VMD-ARIMA联合时序预测算法,科研创新优选算法
【MATLAB 】 VMD-ARIMA联合时序预测算法,科研创新优选算法
19 0
|
2天前
|
并行计算 算法 计算机视觉
【MATLAB 】 EMD信号分解+模糊熵(近似熵)算法
【MATLAB 】 EMD信号分解+模糊熵(近似熵)算法
20 0
|
2天前
|
并行计算 算法 计算机视觉
【MATLAB 】 EEMD 信号分解+模糊熵(近似熵)算法
【MATLAB 】 EEMD 信号分解+模糊熵(近似熵)算法
15 0

热门文章

最新文章

相关产品