基于ML算法、Schmidl & Cox算法、Minn算法、Park 算法实现OFDM系统的时间同步附matlab代码

简介: 基于ML算法、Schmidl & Cox算法、Minn算法、Park 算法实现OFDM系统的时间同步附matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。

🍎个人主页:Matlab科研工作室

🍊个人信条:格物致知。

更多Matlab仿真内容点击👇

智能优化算法       神经网络预测       雷达通信      无线传感器        电力系统

信号处理              图像处理               路径规划       元胞自动机        无人机

⛄ 内容介绍

1.1 ML算法

原理:利用CP前后数据相同,则相关后保留有效值,噪声不相关,会去除,根据噪声的概率公式,求得ML下的估计值。

1.2检测算法

ML算法是不考虑多径情况的,即多径下,同一个符号接收上的错开问题。盲检测算法把这个考虑了进来。多径的简单示意图如下,在偏移位置到Ncp+L-1这个位置之内,跟后面的部分的相关值是分段的。

从上面基于CP的方法其实可以看出来,时域同步的主要方式就是相关。两段数据相同,则起始点位置一致时,相关值最大。数据没联系,则相关值小。不知道你有没有学习过相关的概念。

前面的CPOFDM系统本身就有的,但是受到CP长度(实际就是统计相关的数据量,越大肯定统计效果越好)、CP数据和其他OFDM符号里面数据相关性(理想状态是完全不相关,这个当然很难实现)影响,导致效果不稳定。所以一般实用系统里面都是使用训练序列,这样的话就有训练序列本身和放置两个方面的问题。

明显地,良好训练序列具有的基本特点应该是自相关很大,互相关为0,受到信道、频移、噪声的影响后,这个特点依然存在(很多系统里面采用的ZC序列,具有这个特点,可以自己查查。)

下面的几种算法都是采用的普通伪随机序列,然后在放置上考虑的。

⛄ 部分代码

%----Blind 方法是考虑了多径的ML算法,需要多符号进行平均,否则算法效果还比不上ML

%----衰落信道下Blind算法,函数图

clc

clear all

close all


N          = 256;      %FFT长度

CP_len     = 256/4;    %CP长度

SNR        = 20;       %SNR


symbolNum  = 20;

TxsymbolCP = [];       %产生OFDM时域符号

for i1 =1:symbolNum

   Tx       = randsrc(1,2*N);

   TxSymbolFreq = (Tx(1:2:end)+1i*Tx(2:2:end))/sqrt(2);  %QPSK符号

   TxSymbolTime = ifft(TxSymbolFreq,N)*sqrt(N);          %IFFT,并且功率归一化

   TxSymbolTimeCP = [TxSymbolTime(end-CP_len+1:end) TxSymbolTime];

   TxsymbolCP  = [TxsymbolCP TxSymbolTimeCP];

end


thelta = 8;     %定时偏移

k      = 0:symbolNum*(N+CP_len)-1;

e      = 0.23;

L      = 30;

r1     = [zeros(1,thelta) TxsymbolCP(1:end - thelta)];

l1     =  2*(CP_len+N);                     %检测长度,要将图片的坐标变长,修改该值,但是注意不要越界


v      = 50;       %单位km/h,其他参数固定下,该值越大,则快衰落越厉害,可以单独从singlePath函数的结果看出各因素的影响

h1     = singlePath(10^(-6)*(length(r1)-1),v);

r      = awgn(h1.*r1,SNR,'measured');


n1     = 10^(SNR/10);  %信噪比

rou    = n1/(1+n1);

%---------加入多OFDM符号的平均,否则结果会不稳定,在m<L的部分,产生突变的大值。

pd    = zeros(1,symbolNum);

alpha = zeros(1,symbolNum);

for i1 = 1:l1

   for i2 = 0:CP_len-21

       for i3 = 1:symbolNum-4

           i4 = i1+i2+(i3-1)*(N+CP_len): CP_len-1+i1+(i3-1)*(N+CP_len);

           pd(i3)    = r(i4)*r(i4+N)';

           alpha(i3) = sum(abs(r(i4)).^2) + sum(abs(r(i4 + N)).^2);

           alpha(i3) = alpha(i3)/2;

       end

       md(i2+1,i1)= abs(mean(pd))-(rou)^2*mean(alpha);

   end

end


mesh(md)

a = max(md);          %每列里面挑选最大值,这些最大值是i3取不同的值的时候取得的。

find(a == max(a))     %得到取最大值时i1的位置。

⛄ 运行结果

⛄ 参考文献

[1] 廖浩凌.无线通信中OFDM与CPM系统同步技术研究[D].电子科技大学[2023-06-12].DOI:CNKI:CDMD:2.1015.708930.

[2] 朱文杰.多载波多天线MIMO-OFDM系统同步及信道估计算法研究[D].武汉理工大学,2009.DOI:CNKI:CDMD:2.2009.103014.

[3] 田中梦文,张晓光,黄艺驰,等.CO-OFDM光纤通信系统接收算法中时序同步的研究[J].光学学报, 2014.

[4] 王庆,王博,徐钊.基于训练序列的OFDM定时同步改进算法[J].  2011.

⛳️ 代码获取关注我

❤️部分理论引用网络文献,若有侵权联系博主删除
❤️ 关注我领取海量matlab电子书和数学建模资料


相关文章
|
6天前
|
机器学习/深度学习 算法 5G
基于MIMO系统的SDR-AltMin混合预编码算法matlab性能仿真
基于MIMO系统的SDR-AltMin混合预编码算法通过结合半定松弛和交替最小化技术,优化大规模MIMO系统的预编码矩阵,提高信号质量。Matlab 2022a仿真结果显示,该算法能有效提升系统性能并降低计算复杂度。核心程序包括预编码和接收矩阵的设计,以及不同信噪比下的性能评估。
23 3
|
25天前
|
监控 算法 数据安全/隐私保护
基于三帧差算法的运动目标检测系统FPGA实现,包含testbench和MATLAB辅助验证程序
本项目展示了基于FPGA与MATLAB实现的三帧差算法运动目标检测。使用Vivado 2019.2和MATLAB 2022a开发环境,通过对比连续三帧图像的像素值变化,有效识别运动区域。项目包括完整无水印的运行效果预览、详细中文注释的代码及操作步骤视频,适合学习和研究。
|
1月前
|
算法 5G 数据安全/隐私保护
MIMO系统中差分空间调制解调matlab误码率仿真
本项目展示了一种基于Matlab 2022a的差分空间调制(Differential Space Modulation, DMS)算法。DMS是一种应用于MIMO通信系统的信号传输技术,通过空间域的不同天线传输符号序列,并利用差分编码进行解调。项目包括算法运行效果图预览、核心代码及详细中文注释、理论概述等内容。在发送端,每次仅激活一个天线发送符号;在接收端,通过差分解调估计符号和天线选择。DMS在快速衰落信道中表现出色,尤其适用于高速移动和卫星通信系统。
|
1月前
|
安全 调度
电力系统的负荷损失和潮流计算matlab仿真,对比最高度数,最高介数以及最高关键度等节点攻击
本课题研究节点攻击对电力系统稳定性的影响,通过模拟最高度数、最高介数和最高关键度攻击,对比不同攻击方式下的停电规模。采用MATLAB 2022a 进行系统仿真,核心程序实现线路断开、潮流计算及优化。研究表明,节点攻击会导致负荷损失和系统瘫痪,对电力系统的安全构成严重威胁。通过分析负荷损失率和潮流计算,提出减少负荷损失的方法,以提升电力系统的稳定性和安全性。
|
2月前
|
机器学习/深度学习 算法 TensorFlow
交通标志识别系统Python+卷积神经网络算法+深度学习人工智能+TensorFlow模型训练+计算机课设项目+Django网页界面
交通标志识别系统。本系统使用Python作为主要编程语言,在交通标志图像识别功能实现中,基于TensorFlow搭建卷积神经网络算法模型,通过对收集到的58种常见的交通标志图像作为数据集,进行迭代训练最后得到一个识别精度较高的模型文件,然后保存为本地的h5格式文件。再使用Django开发Web网页端操作界面,实现用户上传一张交通标志图片,识别其名称。
97 6
交通标志识别系统Python+卷积神经网络算法+深度学习人工智能+TensorFlow模型训练+计算机课设项目+Django网页界面
|
2月前
|
机器学习/深度学习 人工智能 算法
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
文本分类识别系统。本系统使用Python作为主要开发语言,首先收集了10种中文文本数据集("体育类", "财经类", "房产类", "家居类", "教育类", "科技类", "时尚类", "时政类", "游戏类", "娱乐类"),然后基于TensorFlow搭建CNN卷积神经网络算法模型。通过对数据集进行多轮迭代训练,最后得到一个识别精度较高的模型,并保存为本地的h5格式。然后使用Django开发Web网页端操作界面,实现用户上传一段文本识别其所属的类别。
87 1
【新闻文本分类识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
|
1月前
|
算法
基于最小二乘递推算法的系统参数辨识matlab仿真
该程序基于最小二乘递推(RLS)算法实现系统参数辨识,对参数a1、b1、a2、b2进行估计并计算误差及收敛曲线,对比不同信噪比下的估计误差。在MATLAB 2022a环境下运行,结果显示了四组误差曲线。RLS算法适用于实时、连续数据流中的动态参数辨识,通过递推方式快速调整参数估计,保持较低计算复杂度。
|
1月前
|
机器学习/深度学习 人工智能 开发框架
【AI系统】AI 学习方法与算法现状
在人工智能的历史长河中,我们见证了从规则驱动系统到现代机器学习模型的转变。AI的学习方法基于深度神经网络,通过前向传播、反向传播和梯度更新不断优化权重,实现从训练到推理的过程。当前,AI算法如CNN、RNN、GNN和GAN等在各自领域取得突破,推动技术进步的同时也带来了更大的挑战,要求算法工程师与系统设计师紧密合作,共同拓展AI技术的边界。
73 1
|
1月前
|
Python
基于python-django的matlab护照识别网站系统
基于python-django的matlab护照识别网站系统
15 0
|
2月前
|
机器学习/深度学习 人工智能 算法
【果蔬识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台
【果蔬识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台。果蔬识别系统,本系统使用Python作为主要开发语言,通过收集了12种常见的水果和蔬菜('土豆', '圣女果', '大白菜', '大葱', '梨', '胡萝卜', '芒果', '苹果', '西红柿', '韭菜', '香蕉', '黄瓜'),然后基于TensorFlow库搭建CNN卷积神经网络算法模型,然后对数据集进行训练,最后得到一个识别精度较高的算法模型,然后将其保存为h5格式的本地文件方便后期调用。再使用Django框架搭建Web网页平台操作界面,实现用户上传一张果蔬图片识别其名称。
52 0
【果蔬识别系统】Python+卷积神经网络算法+人工智能+深度学习+计算机毕设项目+Django网页界面平台