【文献学习】 ComNet: Combination of Deep Learning andExpert Knowledge in OFDM Receiver

本文涉及的产品
函数计算FC,每月15万CU 3个月
简介: 本文提出了一种模型驱动的DL结构,称为ComNet,以取代传统的或FC-DNN的OFDM接收机。

1 介绍

本文提出了一种模型驱动的DL结构,称为ComNet,以取代传统的或FC-DNN的OFDM接收机(参考论文Power of deep learning for channel estimation and signal detection in OFDM systems),它将DL与无线通信领域的expert knowledge相结合。所提出的ComNet 接收机使用DL来促进现有的接收机模型,如信道估计(CE)模块和信号检测(SD)模块,而不是用一个完整的DL替换整个接收机,然后集成通信信息。说白了就是分别用神经网络实现两个接收机的两个模块:信道估计和信号检测。
对数据驱动的模型评价是没有利用无线通信方面的专业知识,从而使基于FC-DNN的接收机变得无法解释和不可预测。
优势:
• 通过传统通信中累积的大量前人工作来初始化网络, 可以极大地提升训练效率,减小数据依赖, 降低整体复杂度
• 使得每个子网络有清晰的物理意义,从而更容易地进行调整,获得进一步增益

2 模型

1.png

2.1 信道估计部分

分为两个步骤
第一步:计算 h L S = y p x p h_{LS} = \frac{y_p}{x_p} hLS​\=xp​yp​​,其中 x p x_p xp​是已知的导频信号, y p y_p yp​是接收端该导频相应的第k个子载波的符号
第二步:由 L L S L_{LS} LLS​的实部和虚部组成一个128维实值信号向量传入LS_RefineNet
注意:LS_RefineNet的神经元没有激活功能,也就是说,它是线性通道估计器

2.2 信号检测部分

分为两个步骤
(虽然作者论文里说提出了两种SD的自网络BiLSTM-SD 和FS-SD,但是作者只介绍了BiLSTM-SD子网,以下以它为例讲解原理过程)
第一步:利用上一步得到的输出h,用公式
第二步:把把接收到的原始信号 y D y_D yD​ ,信道估计输出的h和信号检测初始化得到的 X Z F X_{ZF} XZF​合并实部和虚部信号后一块传入SD的网络

2.png

注意:对于具有64个子载波的OFDM系统,需要8个独立的SD子网

3 模型参数

3.1 发送端

64个QAM,一个符号6个bit,8个子载波
2.6 GHz的C1场景NLOS的WINNER II通道

3.2 接受端

SD网络的最后一层是48个输出,除了最后一层外,每一层的层数和神经元的数目取决于实验经验。

CE子网权重,通过使用实值线性最小均方误差(LMMSE)CE权重矩阵

两者都采用MMSE损失函数
都采用Adam优化器

CE训练2000epoch
SD训练5000epoch

每个epoch使用50个mini-batch,有1000batch

学习率为阶梯函数,初始值为0.001,CE子网每1000个epoch减少10倍,SD子网每2000个epoch减少5倍。

ComNet接收机在线性情况下使用FC-SD,而在非线性情况下使用BiLSTM-SD

4 局限

由于本文的主要贡献是提出了一种新颖的模型驱动的OFDM接收机架构,而不是解决非线性问题,因此没有研究传统的非线性补偿方法。(没有明白,只是翻译了作者的原话)

5 实验分析

只是从各个方面介绍了ComNet优于FC-DNN,这里不做解析。比如
1、在更长的延迟扩展范围内,ComNet接收器明显优于FC-DNN。
2、ComNet只有FC-DNN的1/8的参数
3、ComNet 200epoch就达到FC-DNN2000epoch的同等误码率

6 疑问和反思

1、为什么采用QAM和不是FC-DNN的QPSK调制方式
2、为什么提出了两种SD的子网,只介绍了BiLSTM-SD ,没有介绍FS-SD
3、在SD提出的不同子网,作者说是针对线性问题和非线性问题,指的是什么?

7 源码下载

ComNet-OFDM原作者源码

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
相关文章
|
4月前
|
机器学习/深度学习 算法
【文献学习】RoemNet: Robust Meta Learning based Channel Estimation in OFDM Systems
本文提出了一种基于元学习的鲁棒信道估计算法RoemNet,旨在解决OFDM系统中由于训练和部署信道模型不一致导致的问题,并展示了其在不同信道环境下优越的性能。
43 5
|
4月前
|
机器学习/深度学习 移动开发 算法
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
本文介绍了一种结合生物学启发的神经动力学和内存计算的深度学习方法,提出了脉冲神经单元(SNU),该单元融合了脉冲神经网络的时间动力学和人工神经网络的计算能力,通过实验分析显示,在手写数字识别任务中,基于SNU的网络达到了与循环神经网络相似或更高的准确性。
30 1
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
|
4月前
|
机器学习/深度学习
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
介绍了一种用于语音增强的复数深度神经网络(CDNN),它通过复数值的短时傅立叶变换(STFT)映射到干净的STFT,并提出了参数整流线性单位(PReLU)的复数扩展,实验结果表明CDNN在语音增强方面相对于实值深层神经网络(DNN)具有更好的性能。
55 2
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
|
4月前
|
机器学习/深度学习 编解码 人工智能
【文献学习】Deep Learning for Joint Channel Estimation and Signal Detection in OFDM Systems
该文章提出了一种基于深度学习的方法,用于OFDM系统中的联合信道估计和信号检测,通过信道估计网络(CENet)和信号检测网络(CCRNet)改善了传统方法的性能。
84 2
|
4月前
|
机器学习/深度学习
【文献学习】2 Power of Deep Learning for Channel Estimation and Signal Detection in OFDM
研究成果是:如果有足够的导频,则深度学习模型可以获得与传统方法相当的性能,但是在有限的导频、去除CP和非线性噪声下,深度学习模型更优。
74 1
|
4月前
|
机器学习/深度学习 算法 TensorFlow
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
本文探讨了使用复数卷积神经网络进行MRI图像重建的方法,强调了复数网络在保留相位信息和减少参数数量方面的优势,并通过实验分析了不同的复数激活函数、网络宽度、深度以及结构对模型性能的影响,得出复数模型在MRI重建任务中相对于实数模型具有更优性能的结论。
44 0
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
|
4月前
|
机器学习/深度学习 算法 测试技术
|
4月前
|
机器学习/深度学习 算法 关系型数据库
【文献学习】DeepReceiver: A Deep Learning-Based Intelligent Receiver for Wireless Communications in the Ph
文章介绍了一种名为DeepReceiver的基于深度学习的无线通信智能接收机模型,它通过输入IQ信号并输出恢复的信息比特流,能够适应不同的调制和编码方式,在噪声、射频损伤、信道衰落等非理想条件下进行性能验证。
81 0
|
4月前
|
机器学习/深度学习 存储 算法
【文献学习】Deep Complex Networks
本文深入探讨了深度复数网络(Deep Complex Networks),包括其创新点、复数的优势、作者贡献,以及深度复数技术的具体应用,如复数卷积、激活函数、Batch-Normalization、权重初始化和卷积残差网络,并提出了对文中一些复杂概念的疑问和反思。
98 0
|
机器学习/深度学习 人工智能 算法
【5分钟 Paper】Reinforcement Learning with Deep Energy-Based Policies
【5分钟 Paper】Reinforcement Learning with Deep Energy-Based Policies
129 0