💥💥💞💞欢迎来到本博客❤️❤️💥💥
🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。
⛳️座右铭:行百里者,半于九十。
⛳️赠与读者
👨💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。当哲学课上老师问你什么是科学,什么是电的时候,不要觉得这些问题搞笑。哲学是科学之母,哲学就是追究终极问题,寻找那些不言自明只有小孩子会问的但是你却回答不出来的问题。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能让人胸中升起一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它居然给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。
或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎
💥1 概述
文献来源:
编辑
摘要:
在超密集无线网络中,高效的信道分配在减轻共信道干扰方面起着重要作用。一个简单的解决方案是将相互干扰的网络节点分配到正交信道中,以减少它们之间的干扰。然而,确定最佳信道分配被认为是一个非线性问题,可能也涉及到实际实现问题,如高计算复杂度和控制信令问题。为了解决这些具有挑战性的问题,我们提出了一种利用信念传播概念有效地找到最佳信道配置的分布式信道分配算法。基于消息传递框架,所提出的分布式信道分配算法最大化了超密集网络的总速率,并且对每个网络节点的计算负载较低。此外,我们设计了一个网络协议和帧格式,以在实际无线网络中实现所提出的消息传递框架。所提出方法的主要优势在于,网络节点可以自主确定最佳信道分配并快速适应网络动态变化。仿真结果证实,所提出的分布式信道分配算法在各种网络性能方面,如总速率、可扩展性、延迟和用户移动性方面,均优于传统算法。
编辑
在过去几十年里,无线技术已经严格扩展其应用领域,包括人员通信、机器控制方案、医疗保健服务和监控服务等。最近,物联网(IoT)迅速增长,预计到2023年将增长2.4倍,达到14.7亿设备。不断增加的无线设备将在有限数量的可用无线频道中导致大量的无线通信流量。因此,由于共信道干扰而导致的性能下降成为一个具有挑战性的问题。国际电信联盟(ITU)将无线网络的超高密度定位为陆地国际移动通信系统(IMT)未来技术趋势之一。超高密度网络是一个典型的室内低移动性实现的无线场景。超高密度环境的示例包括体育馆、办公室、公共场所和人口稠密的住宅区。关于实施方面,超高密度网络可以通过三个指标进行表征,即极高密度的接入点(APs)、各种各样的APs以提供各种接入选项以及异构的接入类型。这些指标显示了共信道干扰的高概率,导致超高密度网络的吞吐量降低和信令过载。减少共信道干扰是改善超高密度网络中大多数网络性能因素(如整体吞吐量、延迟和控制开销)的一个重要障碍。
作为应对最新无线宽带系统的实用方法,引入了频道分配策略以有效应对超高密度流量。近期的无线系统利用更宽的频谱和多个正交频道。通过为彼此严重干扰的网络节点分配正交频道,可以减少共信道干扰。最近的IEEE802.11ac WLAN标准设计为多通道宽带系统。一个5GHz ISM频段被划分为多个带宽为20MHz的正交频道。尽管包括IEEE802.11ac系统在内的最新宽带系统提供了几十个正交频道,但超高密度无线网络中的大量无线节点数量远远超过了相应的系统。对于简单的策略,可以应用启发式或随机频道分配,但在总速率、延迟和其他因素方面,性能下降可能会相当明显。因此,频道分配策略的效率变得非常重要。然而,确定每个无线节点的最佳频道是一项复杂的任务。数学公式属于非线性问题范畴,需要高度计算负荷的组合优化来找到最优解。
设计次优但高效的频道分配方法已经付出了很多努力。以前的工作可以分为静态频道分配方法和动态频道分配方法。在静态频道分配中,假设网络在频道分配过程中是静止的。这一类别的示例包括贪婪分配、遗传算法和粒子群优化。在一项研究中,贪婪分配试图通过减少每个频道的传输帧来减轻共信道干扰。该方法利用概率贪婪算法,在传输帧最小化步骤中包括随机化和扰动,以消除局部最优解。另一种遗传算法侧重于通过优化配对节点性能结果的多跳流传输来进行频道分配。这种算法采用了一个非支配排序遗传算法,采用染色体规则和帕累托等级概念来确定每个频道的最佳配置。另一项研究中的粒子群优化被探索为一种频道分配方法,其特点是消除共信道干扰的鸟类群体的性质。通过建立鸟类的典型位置和距离以找到食物作为参考,使用类似的方式确定频道分配决策,即是否合并频道。然而,上述方法在计算复杂性方面并未经过优化,因此无法有效适应动态变化的网络。
详细文章见第4部分。
1. 引言
1.1 研究背景
随着5G及B5G(Beyond 5G)通信技术的发展,UDN成为支撑高容量、低时延无线接入的核心架构。通过在有限区域内密集部署低功率基站,UDN可显著提升频谱复用增益,但基站间距缩短导致同频干扰加剧,传统集中式资源分配方案面临以下挑战:
- 计算复杂度:网络规模扩大时,状态空间呈指数级增长,集中式优化算法难以实时求解。
- 信令开销:中央控制器需收集全局信道状态信息(CSI),导致控制信道拥塞。
- 单点故障风险:中央节点失效将导致全网瘫痪。
分布式信道分配通过节点间局部协作实现全局优化,成为UDN资源管理的关键研究方向。
1.2 研究意义
本文提出基于BP的分布式信道分配算法,旨在解决以下问题:
- 降低计算复杂度:通过并行化消息传递,将全局优化问题分解为局部子问题。
- 减少信令开销:节点仅需与邻居交换消息,避免全局信息同步。
- 增强鲁棒性:分布式架构天然具备容错能力,适应动态网络环境。
2. 相关工作
2.1 传统信道分配方法
- 集中式算法:
- 穷举搜索:遍历所有可能的信道组合,复杂度为 O(KN)(K为信道数,N为基站数),仅适用于小规模网络。
- 启发式算法:如遗传算法、粒子群优化等,通过迭代搜索近似最优解,但收敛速度慢且易陷入局部最优。
- 分布式算法:
- 贪心算法:节点根据局部信息独立选择信道,易导致冲突和性能损失。
- 博弈论方法:将信道分配建模为非合作博弈,通过纳什均衡实现分布式决策,但收敛性难以保证。
2.2 信念传播算法
BP算法源于统计物理学,通过因子图上的消息传递实现概率推断,具有以下优势:
- 分布式计算:节点仅需与邻居交换消息,适合大规模网络。
- 低复杂度:消息更新规则为线性复杂度,适用于实时系统。
- 近似最优性:在树形图中可收敛到精确解,在环状图中表现接近最优。
BP算法已成功应用于编码理论、机器学习等领域,近期被引入无线通信资源分配问题。
3. 系统模型与问题建模
3.1 网络模型
考虑一个UDN场景,包含 N 个小型基站(SBS)和 M 个用户设备(UE),部署在二维平面区域内。基站与用户通过无线链路连接,信道增益 gi,j 由路径损耗和阴影衰落决定:
编辑
3.2 干扰模型
编辑
3.3 问题建模
信道分配问题可建模为以下优化目标:
编辑
其中 ci 为基站 i 分配的信道,K 为可用信道数。该问题为NP难组合优化问题,传统集中式方法难以高效求解。
4. 基于BP的分布式信道分配算法
4.1 因子图构建
将信道分配问题建模为因子图 G=(V,F,E),其中:
- 变量节点 V={v1,…,vN}:对应基站,每个变量节点 vi 的状态为信道 ci。
- 因子节点 F={f1,…,fM}:对应用户,每个因子节点 fj 编码用户 j 的SINR约束。
- 边 E:连接变量节点与受其干扰的因子节点。
4.2 消息传递规则
BP算法通过迭代更新变量节点与因子节点间的消息实现干扰协调。定义以下两类消息:
- 变量节点到因子节点 mvi→fj(ci):表示基站 i 选择信道 ci 时对用户 j 的干扰贡献。
- 因子节点到变量节点 mfj→vi(ci):表示在用户 j 的SINR约束下,基站 i 选择信道 ci 的概率。
消息更新规则如下:
- 变量节点更新:
编辑
- 因子节点更新:
编辑
4.3 算法流程
- 初始化:所有消息设置为均匀分布。
- 迭代更新:
- 并行更新所有变量节点到因子节点的消息。
- 并行更新所有因子节点到变量节点的消息。
- 终止条件:消息变化量小于阈值 ϵ 或达到最大迭代次数 Tmax。
- 信道选择:每个基站根据最终信念选择最优信道:
编辑
5. 仿真结果与分析
5.1 仿真参数
- 网络拓扑:100m×100m区域随机部署50个基站和100个用户。
- 信道模型:路径损耗指数 α=3.7,阴影衰落标准差 σψ=8 dB。
- 信道参数:可用信道数 K=3,带宽 B=15 kHz。
- 算法参数:最大迭代次数 Tmax=20,收敛阈值 ϵ=10−4。
5.2 性能对比
- 系统吞吐量:
- BP算法在基站密度为50个/km²时,系统吞吐量达到集中式算法的98.7%,显著优于贪心算法(82.3%)和博弈论方法(91.5%)。
- 随着基站密度增加,BP算法性能优势进一步扩大,验证了其可扩展性。
- 收敛速度:
- BP算法平均收敛时间为0.8秒,远低于集中式算法的12.3秒,满足实时性要求。
- 鲁棒性:
- 在基站故障率为10%时,BP算法吞吐量仅下降3.2%,而集中式算法下降15.7%,表明分布式架构的强容错能力。
5.3 复杂度分析
- BP算法:每节点仅需处理邻居消息,复杂度为 O(N⋅d⋅K),其中 d 为平均邻居数。
- 集中式算法:复杂度为 O(KN),随网络规模指数增长。
6. 结论与展望
本文提出一种基于BP的分布式信道分配算法,通过因子图建模和消息传递机制,实现了UDN中的高效干扰协调。仿真结果表明,该算法在吞吐量、收敛速度和鲁棒性方面均优于传统方法,为5G及B5G超密集网络资源管理提供了有效解决方案。
未来研究方向包括:
- 动态网络适配:研究用户移动性下的快速收敛机制。
- 多目标优化:联合功率控制与信道分配,实现吞吐量与能效的平衡。
- 机器学习融合:结合深度学习优化消息更新规则,进一步提升性能。
📚2 运行结果
编辑
编辑
编辑
编辑
编辑
部分代码:
%%---------------------initialization---------------------%%%
PndB = (-50:5:20); % in dB
a = 3.7; % Path loss Exponent
dr = 1; % Refrence of Distance in meter
Z= -100; % Noise power in dBm
BW = 15*10^3; % Hz
C = 900; % Sub Carrier Spacing
%%---------------------Convert unit---------------------%%%
Pn = 10.^(PndB./10); % Convert Power transmission from dB to mW
Zn = (10^(Z/10)); % Noise power from dB to mW
orthoChan = [1:1:3]; % Number of Channel (You can change the max channel)
%%---------------------Generate N AP-STA Pairs---------------------%%%
Npair = 50; % Create N AP-STA Pairs
Npairref = Npair;
neighbor =5;
[num,txt,raw] = xlsread('dataiot','data');
coorT = num(:,1:2);
coorR = num(:,3:4);
for Chan = 1:length(orthoChan);
for j = 1 : length(PndB)
%% Input CoorT and CoorR
lengthCoorT = length(coorT);
[dist, min2maxdist, idxDist] = distance(coorT, coorR);
%%---------------------Calculate Gain Channel---------------------%%%
[G, min2maxG] = channelgainnew(dist, lengthCoorT); % Calculate Indoor Fading Channel
NumInit = 1;
for i = 1:orthoChan(Chan)
NumIdx = round(((i/orthoChan(Chan))*Npair));
ChannelChosen{i} = transpose(NumInit:NumIdx);
NumInit= NumIdx + 1;
end
end
%% Update Channel Gain for Conflicting Node in same Channel
memberCh = zeros(length(ChannelChosen),Npairref);
for iter = 1:length(ChannelChosen)
memberCh(iter,ChannelChosen{iter}) = 1;
end
for g = 1:orthoChan(Chan)
indexchan = ChannelChosen{g};
for n = 1:length(indexchan)
for nc = 1:length(indexchan)
G1{g}(n,nc) = G(indexchan(n),indexchan(nc));
end
end
end
Gnol = G1;
for r = 1:length(ChannelChosen)
for kl = 1:length(ChannelChosen{r})
Gnol{r}(kl,kl) = 0;
end
end
%% Assign Power to Calculate Throughput
for z=1: length(Pn)
% Calculate Sum Rate in each Channel When Power transmission is Pn
for i=1:length(ChannelChosen)
indexPairingCh = zeros(1,length(ChannelChosen{i}));
🎉3 参考文献
文章中一些内容引自网络,会注明出处或引用为参考文献,难免有未尽之处,如有不妥,请随时联系删除。