GPU
GPU(Graphics Processing Unit,图形处理器)是一种专门设计用于加速图形渲染和并行计算任务的微处理器。本词条介绍的是计算机硬件领域的GPU,它是现代显卡的核心组件,在游戏、人工智能和科学计算等领域发挥着关键作用。

定义与基本概念
GPU是一种高度并行化的处理器,其设计初衷是为了处理计算机图形渲染中的大量重复性计算任务。与中央处理器(CPU)相比,GPU拥有数量众多的计算核心,能够同时处理成千上万个简单的计算任务。
从架构角度来看,CPU通常拥有4至16个高性能核心,擅长处理复杂的串行任务和逻辑判断;而GPU则可能拥有数千个较小的核心,专门针对大规模并行计算进行优化。这种设计使得GPU在处理图形渲染、矩阵运算等高度并行化的任务时,效率远超传统CPU。
显存(Video RAM)是GPU的重要组成部分,用于存储图形数据、纹理贴图和计算中间结果。现代高端GPU通常配备8GB至24GB的高速显存,采用GDDR6或HBM2等先进内存技术。
发展历史
早期阶段(1970s-1990s)
图形处理的概念可以追溯到20世纪70年代。早期的计算机图形处理依赖于专用的图形加速卡,这些设备主要用于专业工作站和街机游戏机。1981年,IBM推出的个人电脑配备了简单的图形适配器,开启了PC图形处理的时代。
1990年代,随着3D游戏的兴起,图形加速需求急剧增长。1996年,3dfx公司推出了Voodoo图形加速卡,标志着消费级3D图形加速时代的到来。
GPU概念的确立(1999年)
1999年,NVIDIA公司发布了GeForce 256显卡,并首次使用「GPU」这一术语来描述其产品。GeForce 256集成了硬件变换和光照(T&L)功能,能够在硬件层面完成此前需要CPU处理的图形计算任务,这被视为现代GPU的开端。
可编程着色器时代(2001-2006年)
2001年,NVIDIA的GeForce 3引入了可编程着色器技术,允许开发者编写自定义的图形处理程序。这一创新极大地提升了图形效果的多样性和真实感。同期,AMD(通过收购ATI)也推出了具有竞争力的Radeon系列产品。
通用计算时代(2006年至今)
2006年,NVIDIA推出了CUDA(Compute Unified Device Architecture)平台,使GPU能够执行通用计算任务。这一突破性进展将GPU的应用范围从图形渲染扩展到科学计算、金融建模等领域。
2012年,深度学习研究者发现GPU在训练神经网络方面具有巨大优势,这一发现推动了人工智能领域的快速发展,也使GPU成为AI计算的核心硬件。
工作原理
并行处理架构
GPU的核心优势在于其大规模并行处理能力。现代GPU采用SIMT(Single Instruction, Multiple Threads)架构,即单指令多线程模式。在这种架构下,GPU可以用一条指令同时控制数千个线程执行相同的操作,但处理不同的数据。
GPU内部通常划分为多个流式多处理器(Streaming Multiprocessor,SM),每个SM包含若干计算核心、共享内存和调度单元。以NVIDIA的Ampere架构为例,单个SM可包含128个CUDA核心。
图形渲染流水线
在图形渲染应用中,GPU执行一系列标准化的处理步骤,称为渲染流水线:
- 顶点处理:对3D模型的顶点进行坐标变换和光照计算
- 图元装配:将顶点连接成三角形等基本图形单元
- 光栅化:将几何图形转换为屏幕上的像素
- 片段处理:计算每个像素的最终颜色值
- 输出合并:将处理结果写入帧缓冲区
内存系统
GPU配备专用的高带宽显存系统。现代GPU的显存带宽可达每秒数百GB甚至超过1TB,远高于系统内存。这种高带宽设计是支撑GPU大规模并行计算的关键因素之一。
主要应用领域
游戏与娱乐
游戏是GPU最传统也是最重要的应用领域之一。现代3A游戏需要实时渲染复杂的3D场景,包括光线追踪、物理模拟、粒子效果等,这些都高度依赖GPU的计算能力。光线追踪技术的普及使游戏画面更加逼真,但也对GPU性能提出了更高要求。
人工智能与深度学习
GPU已成为人工智能研究和应用的核心计算平台。深度学习模型的训练涉及大量矩阵运算,这正是GPU的强项。据统计,使用GPU训练神经网络的速度可比CPU快数十倍甚至上百倍。
大型语言模型(如GPT系列)和图像生成模型(如Stable Diffusion)的训练和推理都严重依赖GPU集群。数据中心级GPU(如NVIDIA A100、H100)专门针对AI工作负载进行了优化。
科学计算
GPU在高性能计算领域发挥着越来越重要的作用。气象预报、分子动力学模拟、天体物理计算等科学应用都受益于GPU的并行计算能力。全球多个超级计算机采用GPU作为主要计算单元。
专业图形与设计
视频编辑、3D建模、CAD设计等专业应用同样依赖GPU加速。专业级GPU(如NVIDIA Quadro系列、AMD Radeon Pro系列)针对这些应用场景进行了特别优化,提供更高的计算精度和稳定性。
加密货币挖矿
2017年前后,GPU曾被大量用于加密货币挖矿,导致消费级显卡价格大幅上涨。虽然部分加密货币已转向其他共识机制,但GPU挖矿仍是该领域的重要组成部分。
主要制造商
全球GPU市场主要由三家公司主导:
NVIDIA是目前市场份额最大的GPU制造商,其GeForce系列面向消费市场,Quadro/RTX系列面向专业市场,而Tesla/A100/H100系列则专注于数据中心和AI计算。NVIDIA的CUDA生态系统在AI领域具有显著优势。
AMD是NVIDIA的主要竞争对手,其Radeon系列显卡在消费市场具有较强竞争力。AMD同时也是主要的CPU制造商,能够提供CPU与GPU的整合解决方案。
Intel于2022年正式进入独立GPU市场,推出了Arc系列显卡。此前,Intel长期通过集成显卡占据入门级图形市场的主导地位。
技术发展趋势
当前GPU技术正朝着以下方向发展:
制程工艺提升:GPU制造商持续采用更先进的半导体制程,从7nm向5nm、3nm演进,以提升性能并降低功耗。
AI专用单元:现代GPU集成了专门的AI加速单元(如NVIDIA的Tensor Core),大幅提升深度学习计算效率。
光线追踪硬件:实时光线追踪已成为高端GPU的标准功能,专用的RT Core可加速光线与场景的交互计算。
芯粒设计:采用多芯粒(Chiplet)封装技术,将GPU分解为多个小芯片组合,以突破单芯片的制造限制。
参见
参考来源
本条目内容基于计算机硬件领域的公开技术资料和行业通用知识整理。