m基于16QAM的自适应波束形成matlab仿真

简介: m基于16QAM的自适应波束形成matlab仿真

1.算法描述

   16QAM全称正交幅度调制是英文Quadrature Amplitude Modulation的缩略语简称,意思是正交幅度调制,是一种数字调制方式。产生的方法有正交调幅法和复合相移法。

波束形成是阵列信号处理中非常重要的任务,基本处理过程为:

1.采用空间分布的传感器阵列采集场数据

2.对所采集的阵列数据进行线性加权组合处理得到一个标量波束输出。

自适应阵列天线具有抗干扰的作用,他的基本原理是利用算法,在保证信号大增益接收的前提下,自适应的使天线的方向图零陷对准干扰方向,从而抑制干扰或者降低干扰信号的强度,使有用接收信号的增益最大,干扰的增益最小。自适应波束形成通过不同的准则确定自适应加权,主要准则有:1.MSE(最小均方误差)2.SNR(最大信噪比)3.LH(最大似然比)

这些准则都是采用一定的算法,调整波束方向图,从而实现自适应控制。

    QAM调制中,数据信号由相互正交的两个载波的幅度变化表示。QAM是一种矢量调制,将输入比特先映射(一般采用格雷码)到一个复平面(星座)上,形成复数调制符号,然后将该符号的I、Q分量(即该复数的实部和虚部)采用幅度调制,分别对应调制在相互正交(时域正交)的两个载波coswt和sinwt上。

   正交振幅调制可以表示为:

1.png

      

   式中:两个相互正交的载波分量中,每个载波被一组离散的振幅{Am}、{Bm}所调制,故称这种方式为正交振幅调制;Ts是码元宽度,m=1、2、...、M,M为Am和Bm的电平数。振幅Am和Bm可以表示成:

2.png

                                                                             式中:A是固定振幅,dm、em由输入信号确定。dm、em决定已调QAM信号在星座图中的坐标点。QAM是幅度、相位联合调制的技术,它同时利用载波的幅度和相位来传递信息比特,因此在最小距离相同的条件下可实现更高的频带利用率。
    根据802.11a规定,16QAM编码表如表4-14所示。经过表4-14映射后得到的I/Q数据再乘上1/sqrt(10)进行归一化,即得到调制后的I/Q值。I/Q数据分别进行A/D变换,得到两路模拟电平信号,用于和coswt、-sinwt相乘,从而实现调制。
        

3.png

2.仿真效果预览
matlab2022a仿真如下:

4.png
5.png
6.png

3.MATLAB核心程序

    N0          = 1/(10^(SNR/10));
    delta2      = N0;
    deltab      = 0.5;
    error_count = 0;
    bit_count   = 0;
    index       = 0;
    ERR_NUM     = [];
    tmps        = 0;
    while error_count < 1000
        index = index+1;
        for kk=1:nTx
            bits(kk,:)    = round(rand(1,frame_length));
            symbols(kk,:) = qammod(bits(kk,:),16);
        end
        %transmit signal
        s        = symbols; 
        u        = reshape(s,nTx,nRx,length(s)/nRx);
        %Channel
        h        = 1/sqrt(2)*[randn(nRx,nTx,length(s)/nRx) + j*randn(nRx,nTx,length(s)/nRx)];
        for ij = 1:nTx
            p(:,ij,:) = h(:,ij,:).*exp(j*alpha(ij)*pi/180);
        end
        %mmse beamforming
        LMS = zeros(1,length(s)/nRx);
        for i=1:length(s)/nRx
            for ii = 1:length(SIR)
                u2(:,ii) = u(:,ii,i)*10^(SIR(ii)/20); 
            end
            
            XN(:,:,i)   = awgn(u2,SNR,'measured');
            %定义接收信号
            w(:,:,i)    = inv(p(:,:,i)*p(:,:,i)'+2*delta2/deltab*eye(nRx))*p(:,1,i);
            WK          = w(:,:,i)'*p(:,:,i); 
            WK2         = WK/max(abs(WK));
            yhat(:,:,i) = WK2*XN(:,:,i);
            R1          = real(yhat(:,:,i));
            I1          = imag(yhat(:,:,i));
            s_hat(:,:,i)= qamdemod(R1+sqrt(-1)*I1,16);
        end
        s_hat1               = squeeze(s_hat);
        recovered_bits       = reshape(s_hat1,1,length(s));
        ERR_NUM              = sum(recovered_bits ~= bits(1,:));
        if index <= 50
           tmps     = tmps + ERR_NUM; 
        else
           if ERR_NUM/(tmps/50) < 10
              SNR
              error_count
              error_count    = error_count + ERR_NUM;
              bit_count      = bit_count + frame_length;
           end
        end
    end
    %Calculate the BER
    BER  = error_count/bit_count;
    Bers = [Bers,BER];
end
01_104m
相关文章
|
3天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于yolov4深度学习网络的公共场所人流密度检测系统matlab仿真,带GUI界面
本项目使用 MATLAB 2022a 进行 YOLOv4 算法仿真,实现公共场所人流密度检测。通过卷积神经网络提取图像特征,将图像划分为多个网格进行目标检测和识别,最终计算人流密度。核心程序包括图像和视频读取、处理和显示功能。仿真结果展示了算法的有效性和准确性。
49 31
|
3天前
|
算法
基于Adaboost模型的数据预测和分类matlab仿真
AdaBoost(Adaptive Boosting)是一种由Yoav Freund和Robert Schapire于1995年提出的集成学习方法,旨在通过迭代训练多个弱分类器并赋予分类效果好的弱分类器更高权重,最终构建一个强分类器。该方法通过逐步调整样本权重,使算法更关注前一轮中被误分类的样本,从而逐步优化模型。示例代码在MATLAB 2022A版本中运行,展示了随着弱分类器数量增加,分类错误率的变化及测试数据的分类结果。
|
2天前
|
供应链 算法 调度
排队算法的matlab仿真,带GUI界面
该程序使用MATLAB 2022A版本实现排队算法的仿真,并带有GUI界面。程序支持单队列单服务台、单队列多服务台和多队列多服务台三种排队方式。核心函数`func_mms2`通过模拟到达时间和服务时间,计算阻塞率和利用率。排队论研究系统中顾客和服务台的交互行为,广泛应用于通信网络、生产调度和服务行业等领域,旨在优化系统性能,减少等待时间,提高资源利用率。
|
12天前
|
机器学习/深度学习 算法 Python
基于BP神经网络的金融序列预测matlab仿真
本项目基于BP神经网络实现金融序列预测,使用MATLAB2022A版本进行开发与测试。通过构建多层前馈神经网络模型,利用历史金融数据训练模型,实现对未来金融时间序列如股票价格、汇率等的预测,并展示了预测误差及训练曲线。
|
10天前
|
存储 算法
基于HMM隐马尔可夫模型的金融数据预测算法matlab仿真
本项目基于HMM模型实现金融数据预测,包括模型训练与预测两部分。在MATLAB2022A上运行,通过计算状态转移和观测概率预测未来值,并绘制了预测值、真实值及预测误差的对比图。HMM模型适用于金融市场的时间序列分析,能够有效捕捉隐藏状态及其转换规律,为金融预测提供有力工具。
|
10天前
|
机器学习/深度学习 算法 信息无障碍
基于GoogleNet深度学习网络的手语识别算法matlab仿真
本项目展示了基于GoogleNet的深度学习手语识别算法,使用Matlab2022a实现。通过卷积神经网络(CNN)识别手语手势,如&quot;How are you&quot;、&quot;I am fine&quot;、&quot;I love you&quot;等。核心在于Inception模块,通过多尺度处理和1x1卷积减少计算量,提高效率。项目附带完整代码及操作视频。
|
13天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于深度学习网络的宝石类型识别算法matlab仿真
本项目利用GoogLeNet深度学习网络进行宝石类型识别,实验包括收集多类宝石图像数据集并按7:1:2比例划分。使用Matlab2022a实现算法,提供含中文注释的完整代码及操作视频。GoogLeNet通过其独特的Inception模块,结合数据增强、学习率调整和正则化等优化手段,有效提升了宝石识别的准确性和效率。
|
4月前
|
安全
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
本文介绍了2023年高教社杯数学建模竞赛D题的圈养湖羊空间利用率问题,包括问题分析、数学模型建立和MATLAB代码实现,旨在优化养殖场的生产计划和空间利用效率。
224 6
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
|
4月前
|
存储 算法 搜索推荐
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
本文提供了2022年华为杯数学建模竞赛B题的详细方案和MATLAB代码实现,包括方形件组批优化问题和排样优化问题,以及相关数学模型的建立和求解方法。
140 3
【2022年华为杯数学建模】B题 方形件组批优化问题 方案及MATLAB代码实现
|
4月前
|
数据采集 存储 移动开发
【2023五一杯数学建模】 B题 快递需求分析问题 建模方案及MATLAB实现代码
本文介绍了2023年五一杯数学建模竞赛B题的解题方法,详细阐述了如何通过数学建模和MATLAB编程来分析快递需求、预测运输数量、优化运输成本,并估计固定和非固定需求,提供了完整的建模方案和代码实现。
107 0
【2023五一杯数学建模】 B题 快递需求分析问题 建模方案及MATLAB实现代码

热门文章

最新文章

下一篇
DataWorks