基于Matlab模拟 AWGN 中16-QAM 的 OFDM 并计算 BER附完整代码

简介: 基于Matlab模拟 AWGN 中16-QAM 的 OFDM 并计算 BER附完整代码

✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。

🍎个人主页:Matlab科研工作室

🍊个人信条:格物致知。

更多Matlab仿真内容点击👇

智能优化算法  神经网络预测雷达通信 无线传感器

信号处理图像处理路径规划元胞自动机无人机 电力系统

⛄ 内容介绍

基于Matlab模拟 AWGN 中16-QAM 的 OFDM 并计算 BER附完整代码

⛄完整代码

clear all

close all


clc

nbits = 208000;

modlevel = 2 ;

nbitpersym  = 52;   % number of bits per qam OFDM symbol (same as the number of subcarriers for 16-qam)

nsym        = 10^4; % number of symbols

len_fft     = 64;   % fft size

sub_car     = 52;   % number of data subcarriers

EbNo        = 0:2:15;


EsNo= EbNo+10*log10(52/64)+ 10*log10(64/80) +10*log10(4);


snr=EsNo - 10*log10((64/80));


M = modem.qammod('M',16); % modulation object


% Generating data


t_data=randint(nbitpersym*nsym*4,1,2);


qamdata=bi2de(reshape(t_data,4,520000).','left-msb');


maping = bin2gray(qamdata,'qam',16);


% modulating data


mod_data =1/sqrt(10)* modulate(M,maping);


% serial to parallel conversion


par_data = reshape(mod_data,nbitpersym,nsym).';


% pilot insertion


pilot_ins_data=[zeros(nsym,6) par_data(:,[1:nbitpersym/2]) zeros(nsym,1) par_data(:,[nbitpersym/2+1:nbitpersym]) zeros(nsym,5)] ;


% fourier transform time doamain data


IFFT_data =ifft(fftshift(pilot_ins_data.')).';

a=max(max(abs(IFFT_data)));

IFFT_data=IFFT_data./a; % normalization


% addition cyclic prefix


cylic_add_data = [IFFT_data(:,[49:64]) IFFT_data].';


% parallel to serial coversion


ser_data = reshape(cylic_add_data,80*nsym,1);


% passing thru channel


no_of_error=[];

ratio=[];


for ii=1:length(snr)

 

chan_awgn = awgn(ser_data,snr(ii),'measured'); % awgn addition


ser_to_para = reshape(chan_awgn,80,nsym).'; % serial to parallel coversion


cyclic_pre_rem = ser_to_para(:,[17:80]);   %cyclic prefix removal


FFT_recdata =a*fftshift(fft(cyclic_pre_rem.')).';    % freq domain transform


rem_pilot = FFT_recdata (:,[6+[1:nbitpersym/2] 7+[nbitpersym/2+1:nbitpersym] ]); %pilot removal


ser_data_1 =sqrt(10)* reshape(rem_pilot.',nbitpersym*nsym,1);  % serial coversion


z=modem.qamdemod('M',16);


demod_Data = demodulate(z,ser_data_1);  %demodulatin the data

demaping = gray2bin(demod_Data,'qam',16);

data1 = de2bi(demaping,'left-msb');

data2 = reshape(data1.',nbitpersym*nsym*4,1);

[no_of_error(ii),ratio(ii)]=biterr(t_data , data2) ; % error rate calculation


end


% plotting the result


semilogy(EbNo,ratio,'--*r','linewidth',2);

hold on;

theoryBer = (1/4)*3/2*erfc(sqrt(4*0.1*(10.^(EbNo/10))));

semilogy(EbNo,theoryBer ,'--b','linewidth',2);

axis([0 15 10^-5 1])

legend('simulated','theoritical')

grid on

xlabel('EbNo');

ylabel('BER')

title('Bit error probability curve for qam using OFDM');

⛄ 运行结果

⛄ 参考文献

[1] Tahir M . BER of OFDM using 16-QAM in AWGN[J].

❤️部分理论引用网络文献,若有侵权联系博主删除
❤️ 关注我领取海量matlab电子书和数学建模资料


相关文章
|
6天前
|
机器学习/深度学习 自然语言处理 算法
m基于深度学习的OFDM+QPSK链路信道估计和均衡算法误码率matlab仿真,对比LS,MMSE及LMMSE传统算法
**摘要:** 升级版MATLAB仿真对比了深度学习与LS、MMSE、LMMSE的OFDM信道估计算法,新增自动样本生成、复杂度分析及抗频偏性能评估。深度学习在无线通信中,尤其在OFDM的信道估计问题上展现潜力,解决了传统方法的局限。程序涉及信道估计器设计,深度学习模型通过学习导频信息估计信道响应,适应频域变化。核心代码展示了信号处理流程,包括编码、调制、信道模拟、降噪、信道估计和解调。
28 8
|
9天前
|
机器学习/深度学习 算法 数据可视化
基于BP神经网络的64QAM解调算法matlab性能仿真
**算法预览图省略** MATLAB 2022A版中,运用BP神经网络进行64QAM解调。64QAM通过6比特映射至64复数符号,提高数据速率。BP网络作为非线性解调器,学习失真信号到比特的映射,对抗信道噪声和多径效应。网络在处理非线性失真和复杂情况时展现高适应性和鲁棒性。核心代码部分未显示。
|
11天前
|
传感器 算法
ANC主动降噪理论及Matlab代码实现
ANC主动降噪理论及Matlab代码实现
|
20天前
|
存储 算法 计算机视觉
m基于FPGA的FIR低通滤波器实现和FPGA频谱分析,包含testbench和滤波器系数MATLAB计算程序
在Vivado 2019.2平台上开发的系统,展示了数字低通滤波器和频谱分析的FPGA实现。仿真结果显示滤波效果良好,与MATLAB仿真结果一致。设计基于FPGA的FIR滤波器,利用并行处理和流水线技术提高效率。频谱分析通过离散傅里叶变换实现。提供了Verilog核心程序以示例模块工作原理。
17 4
|
24天前
|
算法
m基于PSO粒子群优化的LDPC码NMS译码算法最优归一化参数计算和误码率matlab仿真
MATLAB2022a仿真实现了基于遗传优化的NMS LDPC译码算法,优化归一化参数以提升纠错性能。NMS算法通过迭代处理低密度校验码,而PSO算法用于寻找最佳归一化因子。程序包含粒子群优化的迭代过程,根据误码率评估性能并更新解码参数。最终,展示了迭代次数与优化过程的关系,并绘制了SNR与误码率曲线。
23 2
|
2月前
|
机器学习/深度学习 算法 数据可视化
基于BP神经网络的32QAM解调算法matlab性能仿真
```markdown - 32QAM解调算法运用BP神经网络在matlab2022a中实现,适应复杂通信环境。 - 网络结构含输入、隐藏和输出层,利用梯度下降法优化,以交叉熵损失最小化为目标训练。 - 训练后,解调通过前向传播完成,提高在噪声和干扰中的数据恢复能力。 ``` 请注意,由于字符限制,部分详细信息(如具体图示和详细步骤)未能在摘要中包含。
|
2月前
|
机器学习/深度学习 算法 数据可视化
基于BP神经网络的16QAM解调算法matlab性能仿真
这是一个关于使用MATLAB2022a实现的16QAM解调算法的摘要。该算法基于BP神经网络,利用其非线性映射和学习能力从复数信号中估计16QAM符号,具有良好的抗噪性能。算法包括训练和测试两个阶段,通过反向传播调整网络参数以减小输出误差。核心程序涉及数据加载、可视化以及神经网络训练,评估指标为误码率(BER)和符号错误率(SER)。代码中还包含了星座图的绘制和训练曲线的展示。
|
22天前
|
算法
m基于PSO粒子群优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了Offset Min-Sum (OMS)译码算法与粒子群优化(PSO)结合,以优化偏移参数,提升LDPC码解码性能。PSO通过迭代寻找最小化误码率(BER)的最佳偏移量。核心程序运用PSO进行参数更新和适应度函数(BER)评估,最终在不同信噪比下展示OMS解码性能,并保存结果。
24 0
|
2月前
|
资源调度 算法 块存储
m基于遗传优化的LDPC码OMS译码算法最优偏移参数计算和误码率matlab仿真
MATLAB2022a仿真实现了遗传优化的LDPC码OSD译码算法,通过自动搜索最佳偏移参数ΔΔ以提升纠错性能。该算法结合了低密度奇偶校验码和有序统计译码理论,利用遗传算法进行全局优化,避免手动调整,提高译码效率。核心程序包括编码、调制、AWGN信道模拟及软输入软输出译码等步骤,通过仿真曲线展示了不同SNR下的误码率性能。
34 1
|
2月前
|
算法 Serverless
m基于遗传优化的LDPC码NMS译码算法最优归一化参数计算和误码率matlab仿真
MATLAB 2022a仿真实现了遗传优化的归一化最小和(NMS)译码算法,应用于低密度奇偶校验(LDPC)码。结果显示了遗传优化的迭代过程和误码率对比。遗传算法通过选择、交叉和变异操作寻找最佳归一化因子,以提升NMS译码性能。核心程序包括迭代优化、目标函数计算及性能绘图。最终,展示了SNR与误码率的关系,并保存了关键数据。
28 1