老游戏,新画质:英伟达GPU驱动新功能上线

简介: 老游戏,新画质:英伟达GPU驱动新功能上线

想让旧游戏的体验效果提升?以后或许不需要等开发商出「高清重置版」,只需要升级一下显卡驱动就可以了。

本周五,英伟达的 GeForce 显卡驱动迎来了又一次更新,其中 AI 重制经典游戏的功能引人关注。

英伟达的最新版本 Game ready 驱动提升了包括主机移植游戏《战神 4》PC 版的支持,还包括了一个新工具,可以在不提升 GPU 负载的情况下增强游戏画质。

该技术被称为深度学习动态超分辨率——DLDSR。英伟达表示,你可以使用它以比显示器本身支持的分辨率更高的分辨率运行「大多数游戏」,从而使它们画质看起来更清晰。

最近几年,英伟达超分辨率技术 DLSS 在部分游戏上的应用收获了人们的好评,其可以在游戏中使用低清晰度的输入图像,通过 AI 算法渲染出高分辨率画面,在降低显卡负载的同时保持了高水平画质。不过,DLSS 的问题在于支持的游戏数量有限。

image.png

新的画面增强技术则专注于将画质提升到更高水平。从原理上看,常规的  DSR 渲染技术可以让游戏在低分辨率的显示器上以高分辨率渲染画质,进而获得更好的画质效果。因此假如你在有 1440p 显示器的电脑上以 4K  分辨率运行游戏,使用 DSR 会提升清晰度。但 Downscale 渲染会消耗一部分算力——毕竟这是在要求 GPU 进行额外的运算。

超分辨率技术 DLDSR 采用相同的概念,但结合了人工智能算法,也可以用来增强图像。根据英伟达的说法,这意味着你可以在分辨率提升较小的情况下(性能损失更小)获得近似水平的画质提升。这种下采样方法通过增强细节、平滑边缘和减少闪烁等方式来提高图像质量。

在实际测试中,英伟达声称玩家们如果使用 DSR 以四倍分辨率运行游戏,使用 DLDSR 的话达到同样效果仅需提升 2.25 倍分辨率。

英伟达使用  Bethesda 在 2017 年发行的第一人称射击游戏《掠食》作为示例,在 1080p 显示器上运行时若使用 4x DSR 渲染会以 108  FPS 运行,而 2.25x DLDSR 则让帧数达到了 143,仅比以原生 1080p 画面慢了两帧 / 秒。

image.png

这或许是英伟达超分辨率技术应用最好的例子之一,实际应用时不同的游戏会有不同的画质提升效果。不过,鉴于及其广泛的游戏支持,你将可以在很多旧款游戏中打开  AI 增强画质的设置——尽管首先你需要一张 RTX 显卡(必须要有 Tensor Core),而且它们现在仍不容易获得。

image.png

随着技术进步,通过算法增强画质的技术已经获得了越来越密集的应用。英伟达的竞争对手 AMD 也推出了在游戏中提高性能和图形的技术,称为 Radeon 超分辨率技术(RSR)。AMD 的超分辨率方法和 DLSS 或 DLDSR 有所不同。

目前英伟达的 DLDSR 已在 Nvidia Control Panel 应用中上线。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
弹性计算 运维 监控
GPU实例使用--vGPU驱动自动安装和升级
为了适配最新的渲染软件,以及驱动稳定性的提升,vGPU实例的驱动需要定期进行升级,因为使用vgpu的客户多数为渲染和云游戏等业务场景,对vGPU驱动的快速升级和批量自动化要求比较高。
GPU实例使用--vGPU驱动自动安装和升级
|
29天前
|
机器学习/深度学习 人工智能 容灾
硅谷GPU云托管:驱动AI革命的下一代计算基石
在人工智能与高性能计算席卷全球的今天,硅谷作为科技创新的心脏,正通过GPU云托管服务重新定义计算能力的边界。无论您是初创公司的机器学习工程师,还是跨国企业的研究团队,硅谷GPU云托管已成为实现突破性创新的关键基础设施。
|
6月前
|
机器学习/深度学习 并行计算 PyTorch
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
本文记录了在RTX 5070 Ti上运行PyTorch时遇到的CUDA兼容性问题,分析其根源为预编译二进制文件不支持sm_120架构,并提出解决方案:使用PyTorch Nightly版本、更新CUDA工具包至12.8。通过清理环境并安装支持新架构的组件,成功解决兼容性问题。文章总结了深度学习环境中硬件与框架兼容性的关键策略,强调Nightly构建版本和环境一致性的重要性,为开发者提供参考。
2822 64
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
|
8月前
|
存储 人工智能 算法
Magic 1-For-1:北大联合英伟达推出的高质量视频生成量化模型,支持在消费级GPU上快速生成
北京大学、Hedra Inc. 和 Nvidia 联合推出的 Magic 1-For-1 模型,优化内存消耗和推理延迟,快速生成高质量视频片段。
381 3
Magic 1-For-1:北大联合英伟达推出的高质量视频生成量化模型,支持在消费级GPU上快速生成
|
9月前
|
人工智能 文字识别 异构计算
NVIDIA-Ingest:英伟达开源智能文档提取及结构化工具,支持 GPU 加速和并行处理
NVIDIA-Ingest 是英伟达开源的智能文档提取工具,支持 PDF、Word、PPT 等多种格式,提供并行处理和 GPU 加速,适用于企业内容管理和生成式应用。
319 18
NVIDIA-Ingest:英伟达开源智能文档提取及结构化工具,支持 GPU 加速和并行处理
|
人工智能 自动驾驶 vr&ar
探索GPU算力平台的创新应用:从游戏到自动驾驶的跨越
【8月更文第5天】本文探讨了GPU(图形处理器)在现代计算中的角色转变,从最初的图形渲染到如今成为人工智能和高性能计算的重要组成部分。我们将通过几个具体的案例研究,包括游戏渲染、虚拟现实(VR)以及自动驾驶系统,来展示GPU是如何推动这些领域的进步和发展。
258 1
|
机器学习/深度学习 人工智能 并行计算
GPU算力平台:数字化转型的核心驱动力
【8月更文第5天】随着人工智能(AI)、大数据分析以及高性能计算需求的不断增长,图形处理器(GPU)因其卓越的并行计算能力而成为加速这些领域的关键技术。GPU算力平台不仅能够显著提升计算效率,还能帮助企业更好地处理大规模数据集,支持复杂的机器学习模型训练,并促进实时数据分析。本文将探讨GPU算力平台在数字化转型中的核心作用,并通过示例代码展示其在实际应用中的优势。
593 1
|
存储 人工智能 芯片
多GPU训练大型模型:资源分配与优化技巧 | 英伟达将推出面向中国的改良芯片HGX H20、L20 PCIe、L2 PCIe
在人工智能领域,大型模型因其强大的预测能力和泛化性能而备受瞩目。然而,随着模型规模的不断扩大,计算资源和训练时间成为制约其发展的重大挑战。特别是在英伟达禁令之后,中国AI计算行业面临前所未有的困境。为了解决这个问题,英伟达将针对中国市场推出新的AI芯片,以应对美国出口限制。本文将探讨如何在多个GPU上训练大型模型,并分析英伟达禁令对中国AI计算行业的影响。
2576 0
|
人工智能 缓存 机器人
【2024】英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
英伟达在加州圣荷西的GTC大会上发布了全新的Blackwell GPU,这款拥有2080亿个晶体管的芯片将AI性能推向新高度,是公司对通用计算时代的超越。Blackwell采用多芯片封装设计,通过两颗GPU集成,解决了内存局部性和缓存问题,提供20 petaflops的FP4算力,是上一代产品的5倍。此外,新平台降低了构建和运行大规模AI模型的成本和能耗,使得大型语言模型推理速度提升30倍。黄仁勋表示,Blackwell标志着AI算力在近八年内增长了一千倍,引领了技术边界拓宽的新趋势。
|
弹性计算 并行计算 UED
GPU实例使用--自动安装NVIDIA GPU驱动和CUDA组件
GPU 云服务器正常工作需提前安装正确的基础设施软件,对于搭载了 NVIDIA 系列 GPU卡的实例而言,如果把 NVIDIA GPU 用作通用计算,则需安装 NVIDIA GPU 驱动、 CUDA、cuDNN等软件。
102284 3

热门文章

最新文章