英伟达正式宣布开源 GPU 内核模块代码

简介: 近日,英伟达(NVIDIA)宣布,将 Linux GPU 内核模块作为开放源代码发布。早在几天前,NVIDIA 开始在 GitHub 上陆续公开相关代码,目前该项目已经收获 7.7k star,众多网友对本次开源纷纷表示难以置信。

近日,英伟达(NVIDIA)宣布,将 Linux GPU 内核模块作为开放源代码发布。早在几天前,NVIDIA 开始在 GitHub 上陆续公开相关代码,目前该项目已经收获 7.7k star,众多网友对本次开源纷纷表示难以置信。

英伟达开源 GPU 内核模块代码

本次开源无疑可以帮助改善英伟达 GPU 在 Linux 环境下的体验,与操作系统的紧密集成是帮助开发人员开展调试、集成和贡献回馈的重要一步。这些模块的开源还使得驱动程序在 Linux 发行版供应商手中更加易用。英伟达也改进了开箱即用体验,让用户轻松对英伟达 GPU 驱动程序进行签署与分发。现在,Canonical 和 SUSE 可以即刻将开放内核模块与 Ubuntu 及 SUSE Linux Enterprise Distributions 共同打包。

image.png

开发者可以跟进代码路径,查看内核事件调度如何与工作负载进行交互,从而快速开展根源性调试。此外,企业软件开发者现可将驱动程序无缝集成至项目配置的定制化 Linux 内核当中。此番开源举措将帮助英伟达充分吸纳来自 Linux 最终用户社区的意见和评论,进而提升 GPU 驱动程序的质量和安全性。

每次发布新驱动,英伟达都会在 NVIDIA/open-gpu-kernel-modules 页面上发布源代码快照。社区提交的补丁一旦经过审核批准,即可被集成到后续驱动程序版本当中。

关于更多详细信息,请参阅英伟达贡献指南(https://github.com/NVIDIA/open-gpu-kernel-modules/blob/main/README.md)与驱动程序发布节奏与周期(https://docs.nvidia.com/datacenter/tesla/drivers/index.html#lifecycle)说明文档。

支持的功能

作为首个开放 GPU 内核模块版本的 R515 不仅包含源代码,同时也提供驱动程序的完整构建与打包版本。

对于英伟达 Turing 和 Ampere 架构家族中的数据中心用 GPU 产品,此版本代码可用于生产支持。英伟达专注于测试各类工作负载,确保开源版本与专有内核模式驱动程序具备相同的功能和性能。

未来,HMM 等功能也将成为英伟达 Hopper 架构上实现机密计算的基础组件。这个开源版本对 GeForce 和 Workstation GPU 的支持度已经很高。GeForce 和 Workstation 用户可以在英伟达 Turing 和 Ampere 架构 GPU 上使用此驱动来运行 Linux 桌面,并在 Vulkan 和英伟达 Optix 中实现多屏显示、G-SYNC 和英伟达 RTX 光线追踪等功能。

开发者也可以选择将内核模块参数设置为 NVreg_OpenRmEnableUnsupportedGpus=1。在后续版本中,英伟达还将提供更加强大、功能齐备的 GeForce 与 Workstation 支持,最终推动英伟达开放内核模块全面取代闭源驱动程序。

拥有英伟达 Turing 和 Ampere 架构 GPU 的客户可以具体选择要安装的模块。对于 Turing 之前产品的用户,将继续使用闭源模块。

开源内核模式驱动程序继续沿用相同的固件和用户模式堆栈,包括 CUDA、OpenGL 和 Vulkan,但驱动程序中的所有组件必须与发行版中的版本相匹配。例如,用户不能使用来自更早或更新版本中的用户模式堆栈,发布、构建或运行当前版本中的源代码。

关于如何安装正确版本的更多信息及其他故障排查步骤,请参阅驱动程序自述文件(http://us.download.nvidia.com/XFree86/Linux-x86_64/515.43.04/README/kernel_open.html)。

安装选择

R515 版本包含闭源驱动程序和开源内核模块的预编译版本。这些版本间彼此互斥,需要在安装过程中做出选择。与英伟达 Turing+ GPU 相比,默认选项提供的静默安装能够为英伟达 Volta 及其他较早 GPU 提供最佳路径。可以根据源代码构建内核模块,并配合相关用户模式驱动进行安装。

image.png

图一:启用 GPU 内核模块和闭源模块默认路径的安装选项

上游方法

多年以来,英伟达 GPU 驱动程序在设计上一直强调跨操作系统、跨 GPU 和跨 Jetson SOC 实现代码共享,以确保能够在全部受支持的平台上提供一致的体验。但当前代码库并不符合 Linux 内核设计约定,因此并未成为 Linux 上游社区的备选方法。

但我们已经在积极筹划,希望与 Linux 内核社区及合作伙伴(包括 Canonical、Red Hat 和 SUSE)合作开发上游方法。

与此同时,已发布的这部分源代码也可作为参考,帮助改进 Nouveau 驱动程序。Nouveau 与此次开源的驱动程序共享相同固件,因此公开的多项 GPU 功能,包括时钟管理与热量管理也将为 Nouveau 驱动带来更多新功能。也欢迎大家继续关注 GitHub 上的后续驱动发布与协作进展。

常见问题

哪里可以下载 R515 驱动程序?

开发者可以在 CUDA Toolkit 11.7 中下载 R515 开发驱动,或者在“Beta”驱动程序中的驱动下载页面(https://www.nvidia.com/en-us/drivers/unix/)处下载。R515 数据中心版驱动程序将根据英伟达的发布节奏,在后续版本中与大家见面。

开放 GPU 内核模块本身能否二次分发?

可以,英伟达开放内核模块遵循 GPL/MIT 双许可,许可条款允许二次分发和打包。

英伟达是否会开放其他用户模式驱动程序(例如 CUDA)?

此次变更主要针对内核模块,用户模式组件将保持不变。用户模式继续保持闭源形式,并将与驱动程序和 CUDA 工具包内的预构建二进制文件一同发布。

开放 GPU 内核模块支持哪些 GPU?

开放内核模块支持所有英伟达 Ampere 及 Turing 架构 GPU。数据中心 GPU 将获得生产级支持,GeForce 和 Workstation GPU 则为高质量支持。关于更多详细信息,请参阅数据中心、英伟达 RTX 与 GeForce CUDA GPU 产品表(https://developer.nvidia.com/cuda-gpus)。可以看到,英伟达 Turing 及更新 GPU 的算力评分均为 7.5 及以上。

如何上报 bug?

开发者可以通过 GitHub repo 问题跟踪器(https://github.com/NVIDIA/open-gpu-kernel-modules/issues)或我们的最终用户支持论坛(https://forums.developer.nvidia.com/c/gpu-graphics/linux/148)上报问题。另外,安全问题请通过 GitHub repo 安全政策(https://github.com/NVIDIA/open-gpu-kernel-modules/security/policy)中列出的渠道进行上报。

如何提交补丁?补丁 SLA/CLA 流程是怎样的?

欢迎社区通过 PR 请求在 GitHub 页面上提交补丁。提交的补丁将在审查核准后,与其他修改成果一道被集成到后续驱动程序版本当中。关于更多详细信息,请参阅英伟达驱动程序生命周期(https://docs.nvidia.com/datacenter/tesla/drivers/index.html#lifecycle)文档。

这里发布的源代码是根据共享代码库生成的快照,因此各项贡献可能不会在 GitHub repo 中体现为单独的 Git 提交。英伟达正在规划社区贡献认可流程。出于同样的理由,建议各位贡献者不要对代码进行重大格式调整。

提交 PR 请求的流程请参阅 NVIDIA/open-gpu-kernel-modules GitHub 页面,贡献规则请参阅贡献者许可协议(https://cla-assistant.io/NVIDIA/open-gpu-kernel-modules)。关于更多信息,请参阅开放 GPU 内核模块 NVIDIA/open-gpu-kernel-modules GitHub 页面。

博客地址:

https://developer.nvidia.com/blog/nvidia-releases-open-source-gpu-kernel-modules/

项目地址:

https://github.com/NVIDIA/open-gpu-kernel-modules

开源的重要意义

在英伟达宣布开源后不久,Red Hat 的桌面高级经理 Christian F.K. Schaller 发表了篇题为《Why is the open source driver release from NVidia so important for Linux?》的文章表示,这次开源意味着英伟达已经发布了一个能够使用 Linux 内核中 GPL-only API 的内核驱动程序,尽管这个初始版本不使用旧驱动程序未使用的任何 API。该驱动程序还仅支持 NVidia Turing 芯片 GPU 及之后的更新版本,这意味着它不能用于 2018 年之前的 GPU。因此,对于大多数 Linux 桌面用户来说,并不是立即可用。

对于开源社区来说,这意味着我们将有一个内核驱动程序和固件,允许改变 GPU 时钟,以提供研究者期望从英伟达显卡获得的性能;我们将拥有一个开源驱动程序,可以访问新一代英伟达硬件固件和内核更新;可以开始使用 Linux 内核中的 GPL-only API。

Canonical 公司芯片联盟副总裁 Cindy Goldberg 评论道,“新的英伟达开源 GPU 内核模块在简化安装流程之余,也提升了 Ubuntu 用户的安全保障水平。无论您是 AI/ML 开发者、游戏玩家还是云用户,都能够从中受益。作为最受开发者欢迎的 Linux 类操作系统 Ubuntu 的开发商,我们现在能够立足 Ubuntu 与英伟达 GPU 实现紧密集成,为 AI 和 ML 等前沿领域的开发人员提供更好的支持。”在未来几个月内,英伟达开放 GPU 内核模块将正式登陆刚刚推出的 Canonical Ubuntu 22.04 LTS。

SUSESUSE 公司业务关键 Linux 总经理 Markus Noga 指出,“我们 SUSE 高兴地看到,英伟达决定将 GPU 内核模式驱动程序以开源形式发布。这是开源社区与加速计算领域的真正里程碑。SUSE 有幸通过今年 6 月的 SUSE Linux Enterprise 15 SP4,成为首个引入这一突破性成果的主要 Linux 发行版。英伟达与 SUSE 将凭借安全的软件供应链和卓越的技术支持,共同满足用户跨云、数据中心及边缘等位置的 GPU 加速计算需求。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
目录
相关文章
|
5月前
|
人工智能 中间件 数据库
沐曦 GPU 融入龙蜥,共筑开源 AI 基础设施新底座
沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。
|
11月前
|
人工智能 Linux API
119K star!无需GPU轻松本地部署多款大模型,DeepSeek支持!这个开源神器绝了
"只需一行命令就能在本地运行Llama 3、DeepSeek-R1等前沿大模型,支持Windows/Mac/Linux全平台,这个开源项目让AI开发从未如此简单!"
670 0
|
11月前
|
机器学习/深度学习 并行计算 PyTorch
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
本文记录了在RTX 5070 Ti上运行PyTorch时遇到的CUDA兼容性问题,分析其根源为预编译二进制文件不支持sm_120架构,并提出解决方案:使用PyTorch Nightly版本、更新CUDA工具包至12.8。通过清理环境并安装支持新架构的组件,成功解决兼容性问题。文章总结了深度学习环境中硬件与框架兼容性的关键策略,强调Nightly构建版本和环境一致性的重要性,为开发者提供参考。
6996 64
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
|
12月前
|
人工智能 自然语言处理 API
Proxy Lite:仅3B参数的开源视觉模型!快速实现网页自动化,支持在消费级GPU上运行
Proxy Lite 是一款开源的轻量级视觉语言模型,支持自动化网页任务,能够像人类一样操作浏览器,完成网页交互、数据抓取、表单填写等重复性工作,显著降低自动化成本。
883 11
Proxy Lite:仅3B参数的开源视觉模型!快速实现网页自动化,支持在消费级GPU上运行
|
12月前
|
机器学习/深度学习 人工智能 物联网
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
MiniMind 是一个开源的超小型语言模型项目,帮助开发者以极低成本从零开始训练自己的语言模型,最小版本仅需25.8M参数,适合在普通个人GPU上快速训练。
2227 10
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
|
机器学习/深度学习 人工智能 并行计算
Unsloth:学生党福音!开源神器让大模型训练提速10倍:单GPU跑Llama3,5小时变30分钟
Unsloth 是一款开源的大语言模型微调工具,支持 Llama-3、Mistral、Phi-4 等主流 LLM,通过优化计算步骤和手写 GPU 内核,显著提升训练速度并减少内存使用。
1860 3
Unsloth:学生党福音!开源神器让大模型训练提速10倍:单GPU跑Llama3,5小时变30分钟
|
12月前
|
人工智能 负载均衡 调度
COMET:字节跳动开源MoE训练加速神器,单层1.96倍性能提升,节省百万GPU小时
COMET是字节跳动推出的针对Mixture-of-Experts(MoE)模型的优化系统,通过细粒度的计算-通信重叠技术,显著提升分布式训练效率,支持多种并行策略和大规模集群部署。
702 9
|
5月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
473 3
|
5月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
591 0
|
10月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1356 61

热门文章

最新文章