随着AI算力需求不断增强,800G光模块的需求不断增大

简介: 随着AI算力需求增长和硅光技术进步,光模块产业正经历快速发展,尤其在400G、800G及1.6T领域。到2024年,硅光方案将广泛应用于高带宽光模块,推动技术更新速度加快。800G光模块因高速、高密度和低功耗特性,市场需求日益增长,将在2025年成为市场主流,预计市场规模将达到16亿美元。光模块厂家需关注技术创新、产品多样化和产能提升以适应竞争。

在人工智能芯片(AIGC)和算力不断发展的背景下,光模块产业正在迎来快速发展的时期。随着光模块朝着更高速率的技术发展,硅光技术的成本也在逐步降低,同时降低功耗也成为市场需求的重要方面。

预计到2024年,硅光方案将逐渐在400G和800G光模块的需求中占据市场份额,而1.6T时代也将逐年提升。这将为光模块厂家带来技术更新的机遇,需要他们不断推动技术创新,以满足市场对更高速率、更低功耗的需求。

在这一发展趋势下,光模块厂家需要重点关注技术创新、产品多样化、提高生产能力、质量保障以及产业合作等方面。只有不断适应市场需求的厂家才能在激烈的竞争中取得成功。

111.jpeg

一、AI算力需求不断增强

光模块在电信市场和数据通信市场有着重要的应用,根据数据分析,预计到2025年,全球电信和数据中心光模块市场规模将分别增长至39.85亿美元和73.33亿美元。

光模块厂家的盈利能力受到技术升级的影响,以往每代技术更新周期约为4至5年,但在人工智能算力的推动下,技术更新的速度将逐渐加快。预计1.6T光模块的更新周期将会缩短,这将对盈利能力和市场格局产生持续的影响,强化行业头部企业的地位。

到了2024年,光模块厂商正在逐步实现400G和800G硅光模块的大规模出货,并有望在1.6T硅光模块的送样中取得先发优势。这一趋势表明,光模块行业正在朝着更高速度和更高带宽的方向发展,为电信和数据通信市场带来更先进的解决方案。

二、800G光模块

目前,市场对于200G、400G和800G光模块产品的需求占据主导地位,而1.6T光模块则被视为下一代产品。尽管1.6T光模块目前正在进行推进送样测试阶段,但市场需求尚未形成真正的规模。

222.jpeg

由于人工智能计算的驱动,端到端用户流量不断增加,导致了800G光模块需求的激增。这表明市场对网络带宽并发性和实时性的提升提出了更高的要求。随着带宽需求的持续增加,预计800Gbit/s光模块将逐渐实现规模部署,并凭借其性能优势成为市场的主流产品,预计到2025年将占据主导地位。

乘光网络800G QSFP-DD FR8 是一系列可插拔光收发器模块,专为数据中心800G以太网链路而设计,通过8对并行 MMF(带 FEC),传输距离可达2公里。乘光QSFPD8-FR8 收发器模块设计用于SMF上长达2公里的千兆位以太网链路。符合QSFP-DD MSA和IEEE P802.3bs,光模块符合RoHS标准。

三、800G光模块分类

800G光模块主要有两种分类方式,即按封装分类或按电接口通道数分类。 从封装来看,800G光模块主要有双密度四通道小封装可插拔800G QSFP-DD和八通道小封装可插拔800G OSFP两种类型。

其中乘光网络800G QSFP-DD传输距离分为100米,500米,2公里,采用LC或MPO光口,具有功耗低、体积小、速率高等特性,有利于数据中心增加容量、提高端口密度和降低功耗。主要应用于800G数据中心网络互联。

333.png

乘光网络800G OSFP系列是一款可热插拔的光收发模块,符合IEE802.3ck和OSFP MSA标准,产品涵盖100m,2Km传输距离。产品采用LC或MPO光口,具有功耗低、体积小、速率高等特性,有利于数据中心增加容量、提高端口密度和降低功耗,主要应用于800G数据中心网络互联。

四、800G光模块未来发展趋势

800G光模块凭借其高速传输、高密度、低功耗和卓越可靠性等特性,被广泛应用于IDC数据中心、光通信骨干网等诸多场景。随着人工智能与大数据产业的蓬勃发展,将进一步推动数据流量的不断增长,同时也催生了ICT行业的蓬勃发展。这一发展势头将加速光模块技术向更高规格的800G及以上产品迭代,为信息传输提供更快速、更可靠的支持。

预计从2025年开始,800G光模块将开始主导市场。根据数据分析统计,400G光模块的市场规模预计将从2022年的11亿美元下降至2025年的8亿美元;而800G光模块的市场规模有望从2022年的2亿美元增长至2025年的16亿美元。预计800G光模块的市场占比将从2022年的7%上升至2025年的50%

相关文章
|
1月前
|
人工智能 自然语言处理 算法
AI 系统的出现与算力发展
AI系统的崛起得益于大数据积累、强大算力与先进算法的共同驱动。大数据为AI提供了丰富学习材料,促进算法优化与应用创新;算法进步则提升了图像识别和自然语言处理等领域的性能,扩展了AI的应用范围。此外,GPU、TPU等专用芯片大幅加快了模型训练速度,通过硬件创新进一步增强了AI系统的效能。未来,算法与硬件的协同优化将推动AI技术迈向更高智能水平。
64 1
|
2月前
|
存储 人工智能 算法
阿里云AI基础设施升级亮相,模型算力利用率提升超20%
阿里云AI基础设施升级亮相,模型算力利用率提升超20%
222 18
|
2月前
|
人工智能 自动驾驶 云栖大会
何小鹏驾驶“全球首款AI汽车”亮相云栖大会 深化与阿里云AI算力合作
小鹏汽车加速端到端自动驾驶落地 深化与阿里云AI算力合作
393 13
|
1月前
|
人工智能 算法 JavaScript
无界SaaS与AI算力算法,链接裂变万企万商万物互联
本文介绍了一种基于无界SaaS与AI算力算法的商业模式的技术实现方案,涵盖前端、后端、数据库及AI算法等关键部分。通过React.js构建用户界面,Node.js与Express搭建后端服务,MongoDB存储数据,TensorFlow实现AI功能。提供了项目结构、代码示例及部署建议,强调了安全性、可扩展性和性能优化的重要性。
|
2月前
|
人工智能 数据中心
使用光模块Breakout功能减少AI训练中断故障
本文介绍了使用大成鹏通信光模块Breakout功能可以减少AI训练中断故障的问题。通过Breakout功能,单通道故障不会中断其他通道的数据转发,有效解决了传统光模块因单通道故障导致的训练中断问题。同时,还介绍了如何利用Breakout功能进行更灵活的AI基础网络组网。
|
2月前
|
人工智能 算法 数据中心
从“纸面算力”到“好用算力”,超聚变打通AI+“最后一公里”
2024年,《政府工作报告》首提“AI+”行动,推动人工智能成为新质生产力引擎。市场层面,AI+正深刻变革金融、医疗、制造等行业,但AI算力瓶颈依然存在。在2024年中国算力大会上,超聚变等企业探讨了算力的绿色化和效能提升。超聚变推出的FusionPoD for AI全液冷服务器,显著降低能耗并提升算力效能,其FusionOne AI解决方案也加速了AI在各行业的落地。这些创新将重塑算力格局,推动智能革命。
|
3月前
|
人工智能 语音技术
通义语音AI技术问题之semantic 的 residualquantizer 模块的作用如何解决
通义语音AI技术问题之semantic 的 residualquantizer 模块的作用如何解决
34 9
|
3月前
|
人工智能 前端开发 语音技术
通义语音AI技术问题之CAM++模型中的CAM模块工作原理如何解决
通义语音AI技术问题之CAM++模型中的CAM模块工作原理如何解决
54 4
|
5月前
|
人工智能 网络架构 异构计算
以LLaMa 65B模型训练实例来计算AI/HPC算力光模块数量
本文介绍了如何根据LLaMa 65B模型训练需求计算所需的AI/HPC光模块数量。在案例中,使用2048个A100 GPU,单GPU算力为156 TFLOPS。模型算力需求为546*10^21 FLOPS,预计训练时间为20天。采用两层Fat-Tree网络架构,需1024个400G网卡,48台交换机,若全用400G光模块则需4096个,交换机间2048个,网卡间1024个。大成鹏通信提供200G至800G的解决方案,并提供咨询与支持服务。
107 0
以LLaMa 65B模型训练实例来计算AI/HPC算力光模块数量
|
5月前
|
人工智能 算法 数据中心
这场ICT市场趋势大会,将定义云、算力和AI的里程碑
这场ICT市场趋势大会,将定义云、算力和AI的里程碑

热门文章

最新文章

下一篇
无影云桌面