基于AI的信道信息反馈性能提升比赛总结——赛题

简介: 基于AI的信道信息反馈性能提升比赛总结——赛题

目录


数据简介


提交要求


评测标准


数据简介

比赛链接:https://www.datafountain.cn/competitions/494


本赛题提供在4发送天线4接收天线(4T4R)的MIMO信道环境下生成的信道信息数据集,期望选手们能够通过具体的模型设计与实验,获得较高的信道信息反馈增益、较低的信道信息反馈开销、较好的复杂信道下的模型泛化能力。


赛题数据来自多小区多用户的4T4R 的MIMO信道,数据通过H_4T4R.mat文件提供,数据样本数量为60万例样本,每例样本大小为768,按照24*16*2的顺序排列,其中分别对应24条传输径,4*4的收发天线对,以及实部和虚部。 赛题选手可以充分利用上述各个维度信息之间的相关特性,以期获得更好的比赛成绩。


训练集为H_4T4R.mat,对外发布用于选手训练模型,线上测试集(共计8万例)不对外发布。

本次大赛不允许使用外部数据集,评测结束后,拟获奖团队在作品审核阶段需说明训练过程,必要情况下需复现训练过程。


数据集和官方给的示例:


链接:https://pan.baidu.com/s/12tNolcqAfpHuaaiDrEQ5Gg

提取码:akey

注:如果失效请及时联系我。


提交要求

各参赛选手请按以下要求完成方案设计,并将结果的压缩包文件上传至竞赛平台评分系统:

1.编程语言版本参考: Python 3.6;

2.调用宏包版本参考: tensorflow 2.1.0;pytorch > 1.0.0;Numpy 1.18.1;matplotlib 3.1.2;h5py 2.10.0 ;Sklearn 0.23.2;

3.上传文件大小限制: 文件大小(压缩上传之前)不得超过100M。

评测机器配置为16GB显存Tesla-T4显卡,限定评测推理时间不超过400s。


本赛题支持TensorFlow及Pytorch两种版本结果的提交,大赛提供二者的结果模板作为基线供选手参考,两类版本均提供modelTrain.py、modelDesign.py 文件,其中:


1. modelTrain.py:

用于搭建模型及进行训练,其中数据导入地址为‘./channelData/H_4T4R.mat’;训练模型存储地址为‘./modelSubmit/*.h5’(TensorFlow版本) 或 ‘./modelSubmit/*.pth.tar’(Pytorch版本);


2. modelDesign.py:

用于网络结构的设计,其中Encoder函数(TensorFlow版本)或类(Pytorch版本)定义发送端编码器模型,即输入为全信道信息,输出为压缩后的比特流向量;Decoder函数(TensorFlow版本)或类(Pytorch版本)定义接收端解码器模型,即输入为接收到的比特流向量,输出为重构的信道信息;Encoder与Decoder耦合成Autoencoder模型,选手通过对Encoder及Decoder模型进行优化设计以提高性能比分;


进一步地,选手需将:

1. modelDesign.py

2. encoder.h5(TensorFlow版本)或 encoder.pth.tar(Pytorch版本)

3. decoder.h5(TensorFlow版本)或 decoder.pth.tar(Pytorch版本)

上传至平台评分系统,具体压缩打包规则见【提交示例】。


提交示例


TensorFlow版本需提交modelDesign.py、encoder.h5以及decoder.h5,请将文件以如下结构进行压缩打包,并以【submit_tf】命名压缩包并上传,例如:submit_tf.zip


submit_tf(文件夹,压缩后上传)

  ┣━ modelDesign.py

  ┗━ modelSubmit(文件夹)

     ┣━ encoder.h5

     ┗━ decoder.h5


Pytorch版本需提交modelDesign.py、encoder.pth.tar以及decoder.pth.tar,请将文件以如下结构进行压缩打包,并以【submit_pytorch】命名压缩包并上传,例如:submit_pytorch.zip


submit_pytorch(文件夹,压缩后上传)

  ┣━ modelDesign.py

  ┗━ modelSubmit(文件夹)

     ┣━ encoder.pth.tar

     ┗━ decoder.pth.tar


评测标准

1. 对有效成绩的定义: 反馈比特数不大于给定阀值1000比特,且性能增益不低于给定阀值NMSE<=0.1(信道恢复程度大于等于90%),则此次提交的成绩有效,否则为无效成绩。


2. 对于有效成绩: 反馈比特数小的提交 优于 反馈比特数大的提交

例如:选手甲和选手乙均取得有效成绩,选手甲反馈比特数为100bit,选手乙反馈比特数为200bit,则甲成绩优于乙


3. 同等反馈比特数时,对于有效成绩: 反馈性能高的提交 优于 反馈性能低的提交

例如:选手丙和选手丁均取得有效成绩,选手丙反馈比特数为100bit,性能增益评估为98%信道恢复度,选手丁反馈比特数为100bit,性能增益评估为96%信道恢复度,则丙成绩优于丁


综合得分可表述为: (1000 -反馈比特数N)/1000 + (1/1000) * (1-NMSE)


注意:

1. 选手可在提交记录中查询每次提交的反馈比特数、NMSE、以及提交分数

2. 对于有效成绩、无效成绩均占用当日提交次数

3. 对于无效成绩,提交分数显示为0.000001

4. encoder输出必须是一维的0/1比特流,比特数不超过1000bit。

5. 提供线上评测系统的encoder/decoder推理代码,供选手排查提交文件潜在的运行错误问题。

6. 排行榜上的“有效提交次数”指提交后顺利评测出分的次数,包含有效成绩和无效成绩的提交次数。

7. 排行榜的分数按照四舍五入保留至小数点后8位。


目录
相关文章
|
6天前
|
机器学习/深度学习 Web App开发 人工智能
Amurex:开源AI会议助手,提供实时建议、智能摘要、快速回顾关键信息
Amurex是一款开源的AI会议助手,提供实时建议、智能摘要、快速回顾关键信息等功能,帮助用户提升会议效率。本文将详细介绍Amurex的功能、技术原理以及如何运行和使用该工具。
59 18
Amurex:开源AI会议助手,提供实时建议、智能摘要、快速回顾关键信息
|
7天前
|
机器学习/深度学习 人工智能
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
47 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
|
11天前
|
人工智能 关系型数据库 数据库
Perplexideez:开源本地 AI 搜索助手,智能搜索信息来源追溯
Perplexideez 是一款开源的本地 AI 搜索助手,旨在通过智能搜索和信息来源追溯功能,提升用户的搜索体验。它支持多用户、单点登录(SSO),并提供美观的搜索结果展示。Perplexideez 基于 Postgres 数据库,集成了 Ollama 或 OpenAI 兼容的端点,使用 SearXNG 实例进行网络搜索。
54 14
Perplexideez:开源本地 AI 搜索助手,智能搜索信息来源追溯
|
26天前
|
人工智能 搜索推荐 API
Perplexica:开源 AI 搜索引擎,Perplexity AI 的开源替代品,支持多种搜索模式、实时信息更新
Perplexica 是一款开源的 AI 驱动搜索引擎,支持多种搜索模式和实时信息更新,适用于个人、学术和企业等不同场景。
124 6
Perplexica:开源 AI 搜索引擎,Perplexity AI 的开源替代品,支持多种搜索模式、实时信息更新
|
28天前
|
人工智能 Cloud Native 算法
|
2月前
|
存储 人工智能 自然语言处理
高级 RAG 技术:提升生成式 AI 系统输出质量与性能鲁棒性【预检索、检索、检索后、生成优化等】
高级 RAG 技术:提升生成式 AI 系统输出质量与性能鲁棒性【预检索、检索、检索后、生成优化等】
高级 RAG 技术:提升生成式 AI 系统输出质量与性能鲁棒性【预检索、检索、检索后、生成优化等】
|
1月前
|
人工智能 Java 编译器
.NET 9 发布 性能提升、AI 支持与全方位改进
【11月更文挑战第5天】.NET 9 引入了多项改进,包括性能提升、AI 支持和全方位功能优化。性能方面,编译器增强、服务器 GC 优化、矢量化和硬件支持等提升了执行效率。AI 方面,新增学习材料、合作伙伴生态、原生支持和生成式 AI 集成。此外,.NET Aspire 组件升级、编程语言新功能和开发工具更新进一步提升了开发体验。
|
1月前
|
机器学习/深度学习 人工智能 机器人
何恺明新作出炉!异构预训练Transformer颠覆本体视觉学习范式,AI性能暴涨超20%
【10月更文挑战第29天】在机器人学习领域,训练通用模型面临数据异构性的挑战。近期研究“Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers”提出异构预训练Transformer(HPT),通过大规模预训练学习跨不同本体和任务的共享表示,显著提升了性能。实验结果显示,HPT在未见过的任务上表现优异,性能提升超过20%。
64 6
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
o1医学领域大胜GPT-4,性能暴涨!顶尖华人团队激动发文:离AI医生越来越近了
【10月更文挑战第29天】近日,一支顶尖华人团队发布论文《A Preliminary Study of o1 in Medicine: Are We Closer to an AI Doctor?》,揭示了OpenAI最新语言模型o1在医学领域的卓越表现。研究显示,o1在概念识别、文本总结、问答等任务上远超GPT-4,显著提升了医学领域的AI应用水平,向实现AI医生的目标迈进了一大步。
53 3
|
2月前
|
人工智能 前端开发 JavaScript
拿下奇怪的前端报错(一):报错信息是一个看不懂的数字数组Buffer(475) [Uint8Array],让AI大模型帮忙解析
本文介绍了前端开发中遇到的奇怪报错问题,特别是当错误信息不明确时的处理方法。作者分享了自己通过还原代码、试错等方式解决问题的经验,并以一个Vue3+TypeScript项目的构建失败为例,详细解析了如何从错误信息中定位问题,最终通过解读错误信息中的ASCII码找到了具体的错误文件。文章强调了基础知识的重要性,并鼓励读者遇到类似问题时不要慌张,耐心分析。