m瑞利信道下对比ZF-SIC,MMSE-SIC,MRC三种均衡算法的误码率matlab仿真

本文涉及的产品
文档翻译,文档翻译 1千页
语种识别,语种识别 100万字符
文本翻译,文本翻译 100万字符
简介: m瑞利信道下对比ZF-SIC,MMSE-SIC,MRC三种均衡算法的误码率matlab仿真

1.算法描述

   移动通信系统的性能在很大程度上决定于无线信道的特性。单发单收系统无线信道的特性已经研究得很透彻,针对其各通信标准所采用的载频、带宽、环境等都有权威机构给出实测的信道模型。对于多天线信道而言,许多单天线的概念都被继承了下来,如路径传播损耗、阴影衰落、多径衰落 损耗、长期衰落、短期衰落、相干时间、相干带宽、频率选择性衰落、平坦衰落等 , 所采用的信道模型也基本都是单天线情况下的一些拓展。本实验采用独立的慢衰落环境中的多输入多输出 MIMO 系统,假设发送端的天线数目为Mt,接收端端的天线数目为 Mr。用hij表示从第 j 个发射天线到第 i 个接收天线的信道增益。接收天线i处的噪声为ni,j=1,…, Mt ,i=1,…, Mr ;则第i个接收天线接收信号为:

image.png

     系统工作流程如图3-2下。首先V-BLAST系统在发射端通过串并转换将数据流分解为Mt个子数据流,然后使用 QPSK 或 16QAM 对各路子信号流进行调制, 将比特映射为符号;调制完成后,分别送到Mt个发射天线分别发射,在接收端用Mr个接收天线检测信号。这里假设不论有多少个发送天线,系统的总发射功率是不变的,且总发射功率是平均分配到各个天线的。在接收端用Mr个接收天线检测信号,并按照一定信号检测与估计的方法进行符号解调,最后恢复出数据流(各个接收天线单独进行信号处理得到子数据流,最后需要并串转换将子数据流合成为一个数据流)。假设发送天线之间、接收天线之间完全不相关,且发送的数据也互相独立。V-BLAST系统中接收天线的个数一般要大于或等于发送天线的个数。

   关于接收机检测与估计的方法,最直接的最大似然估计在MIMO信道中可直接采用线性检测(按照ZF或MMSE准则),也可采用非线性的干扰抵消检测(如串行干扰抵消SIC)。

   串行干扰抵消算法是一种非线性检测算法。SIC的基本思想是在对多个符号进行检测与估计时,如果能先对某个符号进行检测与估计解出这个符号,则在解另一个符号时可将已解出的符号对当前待解符号的干扰消除,从而提高待解符号的SINR,提高检测与估计的误码码性能。对于Mt个发送符号,串行干扰抵消每次对一个符号进行检测与估计,每次检测时,先消掉前面已经解出的符号干扰,再对待解符号进行检测与估计(通常仍采用ZF或MMSE准则对待解符号做线性变换),根据论文,我们此次实验采用ZF准则做线性变换。因此对这Mt个发送符号在检测与估计时,共需要Mt步检测判决,(且除掉第一步,其他每一步检测之前都要利用已解出的符号做干扰抵消),这就存在对Mt个发送符号先对谁进行检测的排序问题。理论证明,当Mt个发送符号使用相同星座图时,每一步都选择接收SNR最大的符号,即对应最优的符号排序。

2.仿真效果预览
matlab2022a仿真结果如下:
image.png
image.png
image.png
image.png
image.png

3.MATLAB核心程序

Nuser   = 5;
len_dat = 1000; 
 
num_T   = 2;
num_R   = 2;
Totalerr= 1e5;
Error   =[];
 
for ij=1:length(SNR)
    Num_err = 0; %蒙特卡洛模拟次数
    Numbers = 0; %误码率累加器
    while Num_err<=Totalerr/10
        fprintf('SNR = %f\n', SNR(ij));
        Num_err
        %QPSK发射信号
        signal         = randi([0,3],Nuser*num_T*len_dat,1); 
        signal_matrix  = reshape(signal,num_T,Nuser,len_dat);
        signal_matrix2 = zeros(num_T,Nuser,len_dat);
        for k=1:len_dat
            for k2=1:Nuser
                signal_matrix2(:,k2,k) = pskmod(signal_matrix(:,k2,k),4);
            end
        end
        %Rayleigh
        H_ray     = (randn(num_R,num_T,Nuser,len_dat) + sqrt(-1)*randn(num_R,num_T,Nuser,len_dat))/sqrt(2); 
        N_awg     = (randn(num_R,Nuser,len_dat)       + sqrt(-1)*randn(num_R,Nuser,len_dat))/sqrt(2); 
        %接收
        Rec       = zeros(num_R,Nuser,len_dat); 
        for k=1:len_dat 
            for k2=1:Nuser
                Rec(:,k2,k)=H_ray(:,:,k2,k)*signal_matrix2(:,k2,k)/sqrt(Nuser*num_T); 
            end
        end 
        
        R_noised = Rec + sqrt(1/(10^(SNR(ij)/10)))*N_awg; %高斯白噪声
        x        = [];
        for t=1:len_dat
            for k=1:Nuser
                Rect      = R_noised(:,k,t);
                Ht_ray    = H_ray(:,:,k,t);
                Hmmsesic  = inv(Ht_ray'*Ht_ray+(1/(10^(SNR(ij)/10)))*eye(num_T))*Ht_ray';
                xbits     = func_mmse_dmd(Rect,Hmmsesic,H_ray(:,:,k,t),Ht_ray,[1:num_T],num_T,Nuser,SNR(ij));
                x(:,k,t)  = xbits;
            end
        end
        x1 = zeros(num_T,Nuser,len_dat);
        for k=1:len_dat
            for k2=1:Nuser
                x1(:,k2,k) = pskdemod(x(:,k2,k),4);
            end
        end
        Rec_bits          = reshape(x1,Nuser*num_T*len_dat,1);
        [errbit,temp_ber] = biterr(signal,Rec_bits,2); 
        Num_err           = Num_err+errbit;
        Numbers           = Numbers+1;
    end
    Error(ij)=[Num_err/Numbers/length(signal)];
end
相关文章
|
27天前
|
算法 安全 数据安全/隐私保护
基于game-based算法的动态频谱访问matlab仿真
本算法展示了在认知无线电网络中,通过游戏理论优化动态频谱访问,提高频谱利用率和物理层安全性。程序运行效果包括负载因子、传输功率、信噪比对用户效用和保密率的影响分析。软件版本:Matlab 2022a。完整代码包含详细中文注释和操作视频。
|
12天前
|
算法 数据挖掘 数据安全/隐私保护
基于FCM模糊聚类算法的图像分割matlab仿真
本项目展示了基于模糊C均值(FCM)算法的图像分割技术。算法运行效果良好,无水印。使用MATLAB 2022a开发,提供完整代码及中文注释,附带操作步骤视频。FCM算法通过隶属度矩阵和聚类中心矩阵实现图像分割,适用于灰度和彩色图像,广泛应用于医学影像、遥感图像等领域。
|
13天前
|
算法 调度
基于遗传模拟退火混合优化算法的车间作业最优调度matlab仿真,输出甘特图
车间作业调度问题(JSSP)通过遗传算法(GA)和模拟退火算法(SA)优化多个作业在并行工作中心上的加工顺序和时间,以最小化总完成时间和机器闲置时间。MATLAB2022a版本运行测试,展示了有效性和可行性。核心程序采用作业列表表示法,结合遗传操作和模拟退火过程,提高算法性能。
|
14天前
|
存储 算法 决策智能
基于免疫算法的TSP问题求解matlab仿真
旅行商问题(TSP)是一个经典的组合优化问题,目标是寻找经过每个城市恰好一次并返回起点的最短回路。本文介绍了一种基于免疫算法(IA)的解决方案,该算法模拟生物免疫系统的运作机制,通过克隆选择、变异和免疫记忆等步骤,有效解决了TSP问题。程序使用MATLAB 2022a版本运行,展示了良好的优化效果。
|
13天前
|
机器学习/深度学习 算法 芯片
基于GSP工具箱的NILM算法matlab仿真
基于GSP工具箱的NILM算法Matlab仿真,利用图信号处理技术解析家庭或建筑内各电器的独立功耗。GSPBox通过图的节点、边和权重矩阵表示电气系统,实现对未知数据的有效分类。系统使用MATLAB2022a版本,通过滤波或分解技术从全局能耗信号中提取子设备的功耗信息。
|
13天前
|
机器学习/深度学习 算法 5G
基于MIMO系统的SDR-AltMin混合预编码算法matlab性能仿真
基于MIMO系统的SDR-AltMin混合预编码算法通过结合半定松弛和交替最小化技术,优化大规模MIMO系统的预编码矩阵,提高信号质量。Matlab 2022a仿真结果显示,该算法能有效提升系统性能并降低计算复杂度。核心程序包括预编码和接收矩阵的设计,以及不同信噪比下的性能评估。
32 3
|
24天前
|
人工智能 算法 数据安全/隐私保护
基于遗传优化的SVD水印嵌入提取算法matlab仿真
该算法基于遗传优化的SVD水印嵌入与提取技术,通过遗传算法优化水印嵌入参数,提高水印的鲁棒性和隐蔽性。在MATLAB2022a环境下测试,展示了优化前后的性能对比及不同干扰下的水印提取效果。核心程序实现了SVD分解、遗传算法流程及其参数优化,有效提升了水印技术的应用价值。
|
25天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。
|
30天前
|
存储
基于遗传算法的智能天线最佳阵列因子计算matlab仿真
本课题探讨基于遗传算法优化智能天线阵列因子,以提升无线通信系统性能,包括信号质量、干扰抑制及定位精度。通过MATLAB2022a实现的核心程序,展示了遗传算法在寻找最优阵列因子上的应用,显著改善了天线接收功率。
|
1月前
|
机器学习/深度学习 算法 数据挖掘
基于GWO灰狼优化的GroupCNN分组卷积网络时间序列预测算法matlab仿真
本项目展示了基于分组卷积神经网络(GroupCNN)和灰狼优化(GWO)的时间序列回归预测算法。算法运行效果良好,无水印展示。使用Matlab2022a开发,提供完整代码及详细中文注释。GroupCNN通过分组卷积减少计算成本,GWO则优化超参数,提高预测性能。项目包含操作步骤视频,方便用户快速上手。