Win系统 - 关于GPU,你需要长的“姿势”

简介: Win系统 - 关于GPU,你需要长的“姿势”

图形处理单元(或简称GPU)会负责处理从PC内部传送到所连接显示器的所有内容,无论你在玩游戏、编辑视频或只是盯着桌面的壁纸,所有显示器中显示的图像都是由GPU进行渲染的。本文系统极客将向大家介绍什么是GPU、它是如何工作的,以及为什么要为游戏和图像密集型应用程序配置专用显卡。

image.png


对普通用户来说,实际上不需要独立显卡就可以向显示器「提供」内容。像笔记本电脑或平板用户,通常CPU芯片都会集成GPU内核,也就是大家熟称的「核显」,这样就可以为对显示要求不高的低功耗设备提供更好的性价比。

正因如此,部分笔记本电脑、平板电脑和某些PC用户来说,要想将其图形处理器升级到更高级别也很困难,甚至不太可能。这就会导致游戏(和视频编辑等)性能不佳,只能将图形质量设置降低才能工作。对此类用户而言,只有在主板支持和空闲空间足够的情况下,添加新显卡才能够把(游戏)显示体验提高到一个新的水平。


CPU VS GPU

image.png


目前市场上占主导地位的两大GPU厂商是AMD和Nvidia,AMD的前身就是大名鼎鼎的ATI,其Radeon品牌早在1985年就已发布,而Nvidia在1999年才发布了其首款GPU产品。AMD于2006年对ATI进行了收购,目前在两个不同的领域同Nvidia和Intel进行竞争。实际上在选购GPU产品时Nvidia和AMD并没有太大区别,完全取决于用户的个人喜好。

继Nvidia发布的GTX 10系列推出一堆新产品后,AMD也以提供更实惠的价格与其竞争,并预计在不久的将来就会推出自己的高端图形解决方案。通常情况下,此类科技厂商都会在高端产品上并行竞争和一较高下,此外Intel也在芯片中不断推进自己的图形解决方案,但用户通常还是会选择A卡或N卡。

 

GPU 工作


image.png


GPU目前已成为PC内部最强大的组件之一,其性能大部分都来自于VRAM。由于独立显卡使用的显示内存独立于计算机内存,这些存储器模块允许快速存储和接收数据,而不必再通过CPU路由到主板上插的内存。

虽然显卡内存与计算机内存相似,但却完全不同,例如:支持DDR4内存的主板也可能会支持GDDR5 RAM的显卡。显卡上的VRAM用于在卡上快速存储和访问数据,以及为显示器缓冲渲染帧。其还有助于降低影响屏幕上近似数据的「锯齿状边缘」以实现抗锯齿,使图像看起来更平滑。

 

GPU 散热


image.png


要利用好GPU的原始设计效能必需有大量供电,大量用电就意味着大量发热。显卡(或处理器)产生的热量是以热设计功耗(或简称TDP)和瓦特为单位测量的。但商家对产品的标称并不是直接所需的功耗值,例如新的GTX 1080标称为180W TDP等级,但这并不意味着它需要180W的功率。

之所以提醒大家关心这个值是因为,具有较高TDP的GPU用到有限空气流动的紧凑空间中可能会导致散热问题。特别是对GPU超频的用户来说,需要有足够的冷却手段来处理增加的热量,才能让其稳定运行。

 

GPU 术语

网络异常,图片无法展示
|


架构:GPU基于的平台(或技术)。一般由GPU厂商进行定义,如AMD 的Polaris架构。

显存带宽:它决定了GPU如何有效地利用可用的VRAM。显卡可以使用GDDR5内存,但如果没有有效地利用带宽仍然会有瓶颈。

纹理填充率:指GPU在单位时间内所能处理的纹理贴图的数量,单位是MTexels/S,由内核时钟乘以可用纹理映射单元(TMU)确定。

内核/处理器:显卡上可用的并行内核(或处理器)数。

核心时钟:与CPU的时钟速率类似,通常该值越高GPU则能够更快地工作。

SLI/CrossFire:SLI和CrossFire分别是Nvidia和AMD使用的技术,它们允许用户安装多块GPU卡并协同工作。

Ps:显卡解决图形问题和其他任务的众多核心都是专门设计的,强大的显卡和GPU可以为游戏提供更高的保真度和分辨率,虽然它比CPU更强大,但实际只能用于特定的应用程序。

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
目录
相关文章
|
人工智能 并行计算 流计算
【AI系统】GPU 架构与 CUDA 关系
本文介绍了英伟达GPU硬件基础概念,重点解析了A100 GPU架构中的GPC、TPC、SM等组件及其功能。接着深入讲解了CUDA并行计算平台和编程模型,特别是CUDA线程层次结构。最后,文章探讨了如何根据CUDA核心数量、核心频率等因素计算GPU的算力峰值,这对于评估大模型训练的算力需求至关重要。
1643 3
|
机器学习/深度学习 人工智能 缓存
【AI系统】GPU 基础
GPU,即图形处理器,是计算机系统中处理图形和图像的核心组件,从早期的简单图形加速到如今的高性能计算和深度学习加速,GPU 经历了显著的技术革新。本文将介绍 GPU 的发展历程、与 CPU 的区别、在 AI 领域的关键作用及其在游戏、消费电子、自动驾驶等多个领域的广泛应用。
1445 4
|
机器学习/深度学习 存储 人工智能
【AI系统】为什么 GPU 适用于 AI
本文探讨了GPU在AI计算中的应用,从卷积计算的基本原理入手,解析了GPU线程分级与AI计算模式的关系,以及矩阵乘法如何通过GPU编程提升算力利用率。文章还介绍了计算强度的概念,分析了不同数据结构对计算强度的影响,以及GPU中Tensor Core的作用,强调了在不同存储位置下,找到计算强度与矩阵大小的最佳平衡点对AI计算系统优化的重要性。
1187 2
|
机器学习/深度学习 人工智能 并行计算
【AI系统】GPU 架构回顾(从2010年-2017年)
自1999年英伟达发明GPU以来,其技术不断革新。本文概述了从2010年至2024年间,英伟达GPU的九代架构演变,包括费米、开普勒、麦克斯韦、帕斯卡、伏特、图灵、安培、赫柏和布莱克韦尔。这些架构不仅在游戏性能上取得显著提升,还在AI、HPC、自动驾驶等领域发挥了重要作用。CUDA平台的持续发展,以及Tensor Core、NVLink等技术的迭代,巩固了英伟达在计算领域的领导地位。
1223 1
|
存储 缓存 人工智能
【AI系统】GPU 工作原理
本文详细解析了AI计算体系中的GPU工作原理,重点介绍了GPU与CPU在架构上的差异,强调了GPU在并行计算方面的优势。文章通过$AX+Y$的例子,展示了GPU如何通过并行和并发提高计算效率,并深入探讨了GPU的缓存机制及线程原理,解释了GPU如何通过大量线程和Warp来掩盖延迟问题,实现高效计算。
1165 0
|
机器学习/深度学习 人工智能 缓存
【AI系统】GPU 架构回顾(从2018年-2024年)
2018年发布的Turing图灵架构,采用12nm工艺,包含18.6亿个晶体管,大幅提升了PC游戏、专业图形应用及深度学习推理的效率与性能。Turing引入了RT Core和Tensor Core,分别用于实时光线追踪和加速深度学习计算,支持GDDR6内存,显著提升了数据传输速率和效率。此外,Turing架构还支持NVLink 2.0,增强了多GPU协同工作的能力,适用于复杂的图形渲染和深度学习任务。
1252 0
【AI系统】GPU 架构回顾(从2018年-2024年)
|
并行计算 PyTorch Linux
pytorch安装GPU版本 (Cuda12.1)教程: Windows、Mac和Linux系统下GPU版PyTorch(CUDA 12.1)快速安装
pytorch安装GPU版本 (Cuda12.1)教程: Windows、Mac和Linux系统下GPU版PyTorch(CUDA 12.1)快速安装
12617 0
|
7月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
617 1
|
7月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
775 0
|
12月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1504 61

热门文章

最新文章