沐曦 GPU 融入龙蜥,共筑开源 AI 基础设施新底座

简介: 沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。

沐曦集成电路(上海)股份有限公司(以下简称"沐曦")于 2020 年 9 月成立于上海,其拥有技术完备、设计和产业化经验丰富的团队,曾主导过十多款世界主流高性能 GPU 产品研发及量产,包括 GPU 架构定义、GPU IP 设计、GPU SoC 设计及 GPU 系统解决方案的量产交付全流程。


沐曦打造全栈 GPU 芯片产品,推出曦思®N 系列 GPU 产品用于智算推理,曦云®C 系列 GPU 产品用于通用计算,以及曦彩®G 系列 GPU 产品用于图形渲染,满足“高能效”和“高通用性”的算力需求。沐曦产品均采用完全自主研发的核心 GPU IP,拥有完全自主知识产权的指令集和架构,配以兼容主流 GPU 生态的完整软件栈(MXMACA®),具备高能效和高通用性的天然优势,能够为客户构建软硬件一体的全面生态解决方案,是“双碳”背景下推动数字经济建设和产业数字化、智能化转型升级的算力基石。沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。


2025 年 8 月,沐曦曦云系列产品与 Anolis OS 23、Anolis OS 8 分别完成了相互兼容性测试认证,结果显示:相互兼容,功能正常,运行稳定。其中,Anolis OS 23 是龙蜥社区(OpenAnolis)基于开源生态合作倡议推出的上游原生企业级操作系统,采用 Linux Kernel 6.6 LTS 内核并依托 ANCK 6.6 深度优化,支持海光信息、飞腾、龙芯(LoongArch)、兆芯及 x86_64/ARM64 架构。

(图/沐曦与龙蜥操作系统适配证书)


沐曦联合创始人、CTO 兼首席软件架构师杨建表示:"融入龙蜥社区是沐曦 MXMACA 开源生态战略的重要里程碑。Anolis OS 作为国内领先的开源服务器操作系统,拥有庞大的用户基础与成熟的生态体系。我们期待将自身在 GPU 处理器领域,特别是面向 AI 数据中心算力集群建设、运维及 AI 训练与推理的开源软件栈优化成果贡献至社区,与众多伙伴携手推动龙蜥操作系统成为开源 AI 基础设施生态的优选平台,共同赋能下一代人工智能基础设施建设。"


龙蜥社区智算联盟主席宋卓表示:"  沐曦与龙蜥操作系统完成适配,这不仅丰富了龙蜥社区在 GPU 计算领域的技术布局,也进一步强化了我们在 AI 基础设施生态中的软硬件协同创新能力。沐曦在 GPU 处理器及 AI 算力优化方面的深厚积累,将为 Anolis OS 在 AI 训练、推理及大规模算力集群场景下的性能提升和生态拓展提供重要支撑。龙蜥社区将持续开放协作,携手沐曦股份等优秀伙伴,共建高性能、开放、可信的开源智算生态,加速 AI 技术的普惠化落地。"


截至目前,已有 200 家企业完成近 600 款产品适配,包括安全厂商奇安信、天融信,数据库厂商南大通用、瀚高数据库,中间件厂商东方通、中创中间件、宝兰德等,欢迎更多企业及产品与 Anolis OS、Alinux V4 实现兼容适配。


🚩合作指引:公众号后台回复关键字【产品适配】,获取龙蜥版和龙蜥衍生版阿里云服务器操作系统等适配认证流程,也可通过邮件联系我们,邮箱地址:secretary@openanolis.org。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
4月前
|
人工智能 数据处理 API
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
Apache Flink Agents 是由阿里云、Ververica、Confluent 与 LinkedIn 联合推出的开源子项目,旨在基于 Flink 构建可扩展、事件驱动的生产级 AI 智能体框架,实现数据与智能的实时融合。
793 6
阿里云、Ververica、Confluent 与 LinkedIn 携手推进流式创新,共筑基于 Apache Flink Agents 的智能体 AI 未来
|
4月前
|
人工智能 运维 Java
Spring AI Alibaba Admin 开源!以数据为中心的 Agent 开发平台
Spring AI Alibaba Admin 正式发布!一站式实现 Prompt 管理、动态热更新、评测集构建、自动化评估与全链路可观测,助力企业高效构建可信赖的 AI Agent 应用。开源共建,现已上线!
5799 79
|
4月前
|
人工智能 自然语言处理 Shell
我们开源了一款 AI 驱动的用户社区
KoalaQA 是一款开源的 AI 驱动用户社区,支持智能问答、语义搜索、自动运营与辅助创作,助力企业降低客服成本,提升响应效率与用户体验。一键部署,灵活接入大模型,快速构建专属售后服务社区。
471 5
我们开源了一款 AI 驱动的用户社区
|
4月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
442 1
|
4月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
542 0
|
9月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1323 61
|
存储 机器学习/深度学习 人工智能
2025年阿里云GPU服务器租用价格、选型策略与应用场景详解
随着AI与高性能计算需求的增长,阿里云提供了多种GPU实例,如NVIDIA V100、A10、T4等,适配不同场景。2025年重点实例中,V100实例GN6v单月3830元起,适合大规模训练;A10实例GN7i单月3213.99元起,适用于混合负载。计费模式有按量付费和包年包月,后者成本更低。针对AI训练、图形渲染及轻量级推理等场景,推荐不同配置以优化成本和性能。阿里云还提供抢占式实例、ESSD云盘等资源优化策略,支持eRDMA网络加速和倚天ARM架构,助力企业在2025年实现智能计算的效率与成本最优平衡。 (该简介为原文内容的高度概括,符合要求的字符限制。)
|
10月前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。

热门文章

最新文章