Skip to content

基础硬件知识

字数
12118 字
阅读时间
46 分钟

这一篇文章旨在科普基础的硬件知识。本文可能涉及品牌名、商品名,仅作为举例,不构成任何选购建议。

CPU

简介

CPU,全称为“central processing unit”,译名为“中央处理器”。它是计算机的核心组件之一,它可以执行指令、处理数据、发出指令操控计算机的其他组件等等。

你可以认为,你能想到的几乎所有计算机操作,都离不开 CPU 的参与。你可以将它比作计算机的“指挥官”,在幕后指挥着赛博世界。

TIP

严谨地说,RDMA 等技术可以绕过 CPU 执行任务(通常是为了极致的性能与延迟),但从科普角度你无需在乎这点。

指令集架构

指令集架构,即 instruction set architecture (ISA)。类比现实世界,如果要给工人分派任务,下达指令,不同地方的人会使用不同的语言——如在中国使用汉语,在美国使用英语。同样,CPU 和应用程序也会有不同的类别。即我们可以按 ISA 将 CPU 和程序分类。

ISA 关系到兼容性。如果一个程序能在你的 CPU 上成功运行,那么你可以期望它能在相同 ISA 的其他 CPU 上成功运行——不论 CPU 的品牌或是新旧,并且有完全一致的行为——尽管执行速度可能因硬件差异而有区别。同理,如果你要升级你的 CPU,只要新 CPU 的 ISA 与老 CPU 相同,那么你可以期望原来的应用程序可以直接在新 CPU 上运行,享受性能提升,而无需担心程序无法运行或行为不一致。

TIP

严谨地说,ISA 既包含核心 ISA,也包含像 SGX 和 AVX 这种扩展,而影响兼容性的因素也不仅仅是 ISA,还有 System ABI 等等。因此上述内容是很粗略的描述,仅旨在让你对 ISA 有一个基本认知。

历史上出现过很多种 ISA,大浪淘沙,目前消费级电子领域的 ISA 主要是 x86 和 ARM。此外,如果你修读计算机组成原理一类课程,你也可能接触到 MIPS 和 RISC-V 一类的 ISA。

  • x86

一个古老但在不断演进的 ISA,构建了开放的 PC 平台,有着庞大且成熟的生态系统。目前,市场上能买到的产品几乎都是 64 位的机器。因此在下载软件时,一般可以选择标注为 x86_64 或者 amd64 的软件。

  • ARM

一个在手机、平板等移动端有着绝对统治力的 ISA。在庞大的移动端市场的反哺下,诸多 ARM CPU 性能突飞猛进,甚至 Apple M5 等 CPU 实现了单核性能对 x86 的反超。在下载软件时,一般可以选择标注为 arm64 的软件。

主流 CPU 厂商

x86 阵营

厂商代表产品
IntelCore(酷睿)
AMDRyzen(锐龙)

ARM 阵营

厂商代表产品
AppleA 系列(用于 iPhone)、M 系列(用于 iPad、MacBook)
Qualcomm(高通)Snapdragon(骁龙)
MediaTek(联发科)Dimensity(天玑)
Hisilicon(海思)Kirin(麒麟)、Kunpeng(鲲鹏)

频率

频率,即 frequency。数字世界并不是连续的,它也有自己的“普朗克时间”。你可以认为有一个钟(clock)在打着节拍,每一个周期(cycle)内,CPU 都会推进一些工作,比如执行指令或是访问内存。每秒钟 CPU 经过的 cycle 数量,就是它的频率。

显然,频率是影响 CPU 性能的一个主要因素(但不是唯一因素,我们很快会提到)。CPU 的频率在不断提升,从最初的 kHz,到 MHz,到现在的 GHz 数量级。

受制程、散热、微架构设计等诸多因素的限制,CPU 的频率并不能无限制的提升。

微架构

微架构,即 microarchitecture。现代 CPU 内部有着非常复杂的机制,如流水线、分支预测、访存预取,这些机制都是微架构的一部分,极大地影响着 CPU 的性能。

空有高频率但微架构设计不合理的 CPU,性能是极为糟糕的。下面给出一个实例:

CPU发布时间频率(睿频)SPECint2006 分数
Intel Pentium 4 67020053.8 GHz12.3
Intel Core i7-4790K20144.4 GHz67.6

后者以 115.8% 的频率获得了 549.6% 的性能。

因此在挑选 CPU 的时候,不能只看频率,也要关注微架构。Intel 目前的消费级 CPU,微架构以 Cove 结尾(如 Lion Cove)或者 Mont 结尾(如 Skymont)。AMD 目前的消费级 CPU,微架构以 Zen + 数字(如 Zen 5)来标识。如果不想操心可以让大模型来为你比较两个 CPU 的单核心性能优劣。

制程

制程,即 process。字面意思,它是将理论设计转为实际芯片的制造过程。

制程会影响芯片的密度,即单位面积上的晶体管数量。更先进的制程能够提供更高的密度,从而允许采用更优秀(同时也更复杂)的微架构。制程会影响芯片的频率,从而影响性能。制程会影响芯片的功耗与发热,这一点对于移动设备尤为重要。

一个常见的误区是,认为“3nm”,“5nm”等数字,直接表示芯片上晶体管的大小。事实上,仅对于早期工艺,如 500nm(0.5 μm),这个认知是正确的。但随着技术的演进,特别是引入 FinFET 晶体管后,芯片开始由 2D 平面向 3D 立体结构转变,制程的 nm 数不再与晶体管的某一物理尺寸挂钩。除了缩小晶体管,也有背部供电等技术可以进一步提高芯片的密度,这让以晶体管大小来衡量制程彻底失去了意义。现今,nm 数的意义是作为营销代号或是划分技术节点(node)。

核心

核心,即 core。核心数量影响着 CPU 的多任务执行能力。在微架构,频率等因素相同的情况下,一个 8 核心的 CPU 理论算力应该是 4 核心 CPU 的 2 倍,这非常符合直觉。

但需要指出,并不是所有的任务都能由多个核心共同完成。哪怕是可以由多个核心并行执行的任务,受核间通信等诸多原因的制约,随着核心数量的增加,性能收益是递减的,而非上文所说的线性的性能提升。拿做饭类比,如果饭店请 n 个厨师而不是 1 个,那么理论上同样的时间内,能做出 n 倍的饭菜。但是,对某一道菜而言,请再多的厨师也不能缩短它从下锅到出锅的时间。

此外,核心未必是平等的。例如,Intel 公司的消费级 CPU 常常使用俗称 “大小核” 的技术。不同的核心有不同的设计,从而导致它们的运行效率和能耗等性能指标也不相同。

线程

线程,即 thread。超线程是为了提高 CPU 的硬件资源利用率而产生的技术。

现代 CPU 都是超标量(superscalar)的。即为了提高性能,每个核心内有着多个执行单元,比如两条加法指令如果不发生冲突,那么它们可以同时执行。理想情况下,所有的执行单元应该都是满载的,没有资源的浪费。但是,现实任务中,总会由于指令依赖或访存延迟等诸多原因,出现运算单元闲置的情况。芯片面积是寸土寸金的,我们希望最大化硬件资源的利用率,于是有了超线程技术。通过在一个物理核心上运行多个线程,即在逻辑上表现为多个“虚拟核心”在执行不同的任务,我们能让尽可能多的执行单元被利用起来,从而获得多线程的性能收益。

以目前主流的单核心双线程为例,尽管通过超线程技术,我们有两倍于核心数的线程数,但是芯片上真实存在的执行单元并没有增加,不能期望仅通过超线程就能让 CPU 算力直接翻倍。根据 Intel 论文中的数据,超线程技术以约 5% 的芯片面积开销,获得了 15% - 30% 的多核性能收益。

缓存

缓存,即 Cache。它的作用是缓解访存瓶颈。

我们能够造出容量大的存储器,也能造出延迟低、速度快的存储器,但是我们没有办法制造出容量大延迟低、速度快的存储器。因此,我们引入了缓存这一解决方案。

现代 CPU 一般有着 L1、L2、L3 三级缓存机制,它们容量依次递增,但是延迟越来越高,速度越来越慢。当 CPU 要访问数据的时候,它不会直接访问内存,而是先在 L1 缓存中寻找,L1 找不到再找 L2,以此类推,直到确认缓存中没有所需数据,CPU 才会访问内存,获取数据,并将取得的数据放入缓存中,这样下次需要这个数据的时候可以直接从缓存中获取。

缓存对 CPU 性能影响极大。访问 L1 缓存大概需要 1-4 cycles,访问 L3 缓存大概需要 20-40 cycles,而访问内存需要数百个 cycles。AMD 的 3D V-Cache 技术可以增大 CPU 的 L3 缓存,尽管频率有所降低,但是对于游戏,尤其是《CS2》《PUBG》等访存敏感的游戏,采用 3D V-Cache 技术的 X3D 系列 CPU 表现出了一骑绝尘的性能。

以下数据来自 极客湾的视频,GPU 控制变量为 RTX 4090,测试项目为 《CS2》1920 × 1080 低画质。

CPU1% 低帧 (fps)平均帧 (fps)
R7 9800X3D187560
R7 7800X3D183496
R9 9950X158462
U9 285K204423
i9 14900K156418

哪怕是前代 X3D CPU,在游戏中也轻松击败了最新的、频率更高的非 X3D 旗舰 CPU。

TIP

如果你对 cycle 这个术语感到陌生,你可以参考上文中“频率”这一节提到的内容。

TIP

上文的数据只有数量级是有意义的,实际访问缓存的延迟取决于微架构。

内存

简介

内存,在计算机语境下指 random-access memory(RAM)。它的作用是存储正在运行的程序及它们的数据。硬盘虽然容量更大,但是其速度(尤其是延迟)与 RAM 有着数量级的差距。因此,在运行大型程序时,RAM 是很关键的一个影响因素。

TIP

注意,不要将 RAM 与手机的“内存”混为一谈,后者指的是手机的 internal storage,即储。为了强调这一点,这一节将统一使用“RAM”这个词。

易失性

RAM 具有易失性,不同于硬盘,RAM 断电后,其中保存的信息会丢失。这意味着,如果你正在进行重要的工作,定期保存文件是极为重要的。这样即使意外断电,已经保存到硬盘的数据仍是安全的。

TIP

严谨地说,存在非易失性的 RAM,如 Intel Optane。但是在消费级领域,你可以忽略它。这一节的 RAM 指的均为 DDR RAM。

容量与虚拟内存

容量,即 capacity 或 size。字面意思,它描述了 RAM 有多“大”。如果你要同时执行多个程序或运行大型复杂程序,大容量的 RAM 是必不可少的。

设想这样的情况:一个程序在 99% 的时间内,所需 RAM 都较少,只有在 1% 的时间内需要较多 RAM。或是你没有留心,不小心开启了过多程序。如果仅因为这些突发的、短时的 RAM 不足,就导致一个程序无法运行或计算机死机,这无疑是令人沮丧的。

虚拟内存,即 virtual memory,可以解决这个问题。它的原理十分简单,通过牺牲速度,我们可以将容量更大的硬盘作为虚拟的 RAM 来使用。当 RAM 不足时,操作系统会智能地将部分数据从 RAM 中移出,保存到硬盘上,待以后需要时再进行交换(swap)—— 将它移入 RAM,同时将另一部分数据交换出 RAM。

“简介”这一节提到,RAM 与硬盘在速度与延迟上有着数量级的差距。因此,虚拟内存只能解决“能不能”运行的问题,至于运行速度,肯定是不尽如人意的。所以,如果一个程序所需的 RAM 几乎总是超出你的计算机的 RAM 容量,这就在提示你,你需要购买更多 RAM 才能让它流畅运行。

带宽与延迟

带宽,即 bandwidth。延迟,即 latency。如果说“容量”这个概念是在形容 RAM 的“数量”,那这两个概念就是在形容 RAM 的“质量”。

RAM 带宽越高,单位时间内 CPU 就能获取越多数据。在机器学习、科学计算、3D 渲染等生产力场景,RAM 带宽对性能有较大影响。RAM 带宽也对核显性能有较大影响,我们会在后文提及。

RAM 延迟越低,CPU 获取数据需要等待的时间就越短。在游戏领域,RAM 延迟对帧率有一定影响,但通常并不显著,远不如 L3 缓存容量带来的影响。因此,如果你是一名预算有限的游戏玩家,你应该先增大 RAM 容量,以确保游戏不依赖虚拟内存运行,再追求 X3D 等大 L3 缓存的 CPU,最后再考虑低延迟 RAM。

RAM 带宽受若干因素影响(我们会在后文提及),一般不直接用“GB/s”等来描述。RAM 延迟也不直接用 ns 等时间单位描述,而是用 CL + 一个数字来描述(如“CL 20”),这个数字越小表示延迟越低。讲解它具体是什么含义超出了本文科普的初衷,如果你有兴趣可以搜索“时序”获得更多信息。

DDR 与 LPDDR

目前在消费级领域,你的产品的 RAM 基本都是 DDR 或 LPDDR。它们有诸多差异,下面列出对用户有较大影响的区别。

DDRLPDDR
设计目标高性能低功耗
主要应用台式机、服务器、高性能笔记本手机、平板、轻薄本
功耗正常显著低于 DDR,尤其在待机时功耗优势明显
封装与可更换性模块化,可自行更换通常直接焊接到电路板上,难以更换

因此,在购买笔记本时,最好留心它使用的是哪一种 RAM 以及它的 RAM 容量。如果使用 DDR RAM,你可以等到 RAM 不足时再自行升级。如果使用 LPDDR RAM,一定要在购买时确认 RAM 容量能满足你的需求。

DDR 代际及封装形式

如果你要为你的计算机添加 RAM,这两点是你在采购时需要首先关心的,因为它们直接关系到 RAM 与你的计算机是否兼容。

代际

当一个技术在不断演进时,它有多个代际是非常自然的现象。类比移动通信技术可按代际划分为 4G、5G,DDR 也可分为 DDR4、DDR5 等。

从远古的 DDR 到近代的 DDR3 基本已经退出历史舞台,写作本文时(2025 年),市场上主流的 RAM 是 DDR4 与 DDR5,它们互不兼容

封装形式

你买到的 RAM 不是一片片独立的芯片,而是一整个模块化的组件,因其形状通常被称为“内存条”。台式机内部空间充裕,使用 DIMM 内存条。笔记本内部空间紧张,通常使用更为紧凑的 SO-DIMM 内存条。它们连尺寸都不一样,自然也互不兼容

频率与通道

这两个概念主要影响 RAM 的 带宽 而非延迟,其具体含义你可以参考上文。

RAM 的理论带宽与频率成正比,因为 RAM 的频率决定 RAM 与 CPU 每秒传输数据的次数。其余因素不变的情况下,每秒传输数据次数翻倍,那么理论带宽也应翻倍。

RAM 的理论带宽与通道数成正比,你可以将 RAM 通道比作车道——若车道加宽一倍,车流量理应翻倍。举例来说,控制频率相同,两条 16GB 内存组成双通道,带宽会是单条 32GB 内存的两倍。

目前主流消费级 CPU,即 Intel Core 系列与 AMD Ryzen 系列都使用双通道 RAM。尽管你可能看到 4 个 RAM 插槽,但它们实际上是以两组双通道,而非四通道的形式运行。

GPU

简介

GPU,全称为“graphics processing unit”,译名为“图形处理器”。这个概念由 NVIDIA 于 1999 年发布 GeForce 256 时提出。最初,GPU 的功能是执行绘图相关的运算,被应用于游戏领域。后来,随着技术的演进,GPU 由于其特殊的硬件结构,在深度学习等领域大放异彩。后文会对此做进一步解释。GPU 并不是计算机的专属元件,它同样存在于手机、平板等移动设备中。

与 CPU 的区别

不同的计算任务有不同的特征与需求。CPU 是通用的,理论上,凡是 GPU 能做的运算,CPU 一定也能完成。但对于某些特定的任务,如绘图运算、深度学习,CPU 的效率不够高,根本原因是 CPU 的硬件结构不适合处理这些任务。

具体而言,CPU 更加注重逻辑与控制,晶体管被用来实现诸多复杂机制,以应对多变的任务;GPU 则更专注于纯粹的计算,以同样的晶体管数量可以获得远多于 CPU 的执行单元,从而获得更高的算力。你可以把它们分别类比为一个博士生和一百名中学生,前者擅长处理复杂的任务,但倘若要做一千道四则运算题,就显得力不从心了。

与 CPU 的关系

现代的 GPU 工作时需要 CPU 向它发出指令。比如你在玩游戏时,CPU 会不断地向 GPU 发出绘制指令,GPU 收到指令后进行渲染与绘图。因此,CPU 与 GPU 是相辅相成的。如果 CPU 的性能远强于 GPU,那么 GPU 无法及时完成 CPU 发出的指令。如果 GPU 的性能远强于 CPU,那么 CPU 无法发出足够的指令让 GPU 满负荷工作。好比木桶的容量总是受限于最短的那块木板,CPU 与 GPU 的性能应该均衡搭配。

核显与独显

独显,即“独立显卡”,是一个独立的模块,有着更高的性能,代价是通常更高的功耗与成本。

核显,即“核芯显卡”。在不严谨的语境下,它也常被称为“集显”,即“集成显卡”(虽然这个名词早期指集成在主板上的显卡)。现在的核显一般集成在 CPU 内部,性能低于独显,但是功耗有极大优势。因此,在轻薄本等对功耗极端敏感的设备上,通常只有核显。哪怕对于游戏本等追求高性能的设备,核显也是有重要意义的。像浏览网页、观看视频等简单任务,可以只让核显处理,从而让笔记本续航更长,也能降低发热与风扇噪音。

VRAM

VRAM,即 video random-access memory,通常被称为“显存”。

正如 CPU 需要 RAM 来存放数据,GPU 也需要 VRAM 来存放它的数据,比如 AI 模型,或是你玩的游戏的人物贴图。显而易见,VRAM 的容量会是决定这些程序能否正常运行的关键因素。

独显有自己的 VRAM,因为它是一个独立的组件。而对于核显,它的 VRAM 就是计算机的 RAM。如果 RAM 不够大,再划出一部分给核显使用就更显得捉襟见肘。如果 RAM 带宽不够高,核显就无法高效获取它需要的数据,性能会受到极大制约。

主流 GPU 厂商

这里仅列出独显。

厂商代表产品
NVIDIAGeForce RTX
AMDAMD Radeon
IntelIntel Arc

GPGPU

GPGPU,第一个 GP 表示 general purpose。

上文提到,GPU 特殊的硬件结构使它适合于纯粹的、大量的计算任务。因此,它的应用场景并不局限于游戏渲染、3D 建模等图形学领域。可以说,没有 GPGPU 的帮助,就没有今天繁荣的 AI 生态。

目前在 GPGPU 领域,NVIDIA 有着绝对的统治地位,构建了成熟的 CUDA 生态。

主板

简介

主板,即 mainboard 或 motherboard。它的功能是把各个独立的部件整合为一个整体。它也提供各种 I/O 接口,比如 USB 接口。

我们已经介绍了 CPU、GPU、RAM 等组件。如果要构建一台切实可用的计算机,我们需要主板来将它们从一盘散沙整合为一个整体。同时,主板上也有 MOS 管等元件,保障这些关键组件的供电。对于高功耗的旗舰级 CPU,一块用料扎实的主板是必不可少的。

虽然“计算机”这个名字中有“计算”二字,但一台实用的计算机不能仅停留在计算上,它还要能与外界交互,比如连接鼠标、键盘,连接网络。这些 I/O 接口通常由主板提供。

CPU 接口

CPU 接口,即 CPU socket,是影响 CPU 与主板兼容性的一个关键因素。

不同厂商会有不同的接口,同一厂商的不同代际产品也可能会有不同接口,选购时需要留心。

芯片组

芯片组,即 chipset。它的职能是连接各个组件,同时也提供如 USB、无线网络等功能。这样许多常用功能就内置在了主板内,无需再额外购买扩展硬件。

芯片组与 CPU 有着对应关系,是另一个影响 CPU 与主板兼容性的因素。一个芯片组可以兼容某个代际范围的 CPU,一个 CPU 可能兼容若干芯片组。

也可能出现这样的情况:CPU 与主板物理意义上兼容(即接口一致),但是因为芯片组不匹配而互不兼容。同上,如果你不想操心,可以直接让大模型来替你判定某款 CPU 与主板是否兼容。

存储

简介

我们已经介绍了 Cache、RAM 等存储介质,虽然它们速度快、延迟低,但是它们单位容量成本极高,更重要的是,它们都是易失性的存储介质,断电后内部数据会丢失。我们需要成本低廉,能持久保存数据的存储介质。目前被广泛运用的主要有两种,机械硬盘(HDD)和固态硬盘(SSD)。

HDD

HDD,即 hard disk drive,译名为“机械硬盘”。它依靠磁来存储信息,你可以类比磁带来对它的原理有一个初步认知(尽管 HDD 远比磁带复杂)。它的内部有若干圆形盘片,信息存储于每个盘片的正反两面——即盘面上,依靠磁头来读写数据。为了在盘面的任意位置读写数据,工程师们想到了一个巧妙的办法。我们让盘面高速旋转(每分钟数千甚至上万转),而磁头置于机械臂上,能以一定角度摆动。依靠这两个机制的配合,我们能让磁头经过盘面的任意位置上方,进行数据读写。

以上机制赋予了 HDD 它最大的优势——便宜,但也伴随着诸多代价。

HDD 速度远慢于 SSD,尤其是大量随机小文件的读写。HDD 依靠机械结构来定位磁头,这意味着,当你要读写一个随机位置时,你需要等待机械臂的移动以及盘片的旋转,而这两个时间都是毫秒级的。哪怕是大文件的连续读写,受限于盘片转速,HDD 速度也远不如 SSD。而机械结构带来的缺点不仅限于性能低下。精密机械意味着易受震动、跌落影响。盘片旋转、磁头移动也都会产生噪音。

SSD

SSD,即 solid state drive,译名为“固态硬盘”。这是一个很形象的名字,“固态”意味着它内部没有活动的机械结构,而是依靠半导体芯片来存储数据。

SSD 很好地解决了 HDD 的机械结构带来的缺陷。SSD 速度极快,现代 SSD 能轻松做到数 GB/s 的连续读写速度,随机小文件读取性能更比 HDD 高出数个数量级。SSD 内部不存在机械结构,因此 SSD 运行时没有噪音,它抗震,而且更易缩小体积(这点在笔记本上尤为关键)。

SSD 最大的缺点是其高昂的单位存储价格。为了解决这一点,SSD 从最初的 SLC,演进到 MLC,再到 TLC 与 QLC,分别表示一个单元存储 1、2、3、4 个 bit。从 SLC 到 QLC 成本递减,但是性能与可靠性也随之下降,要根据需求与预算找到一个平衡点。

接口与协议

这两点关系到存储设备与你的计算机是否兼容。

首先介绍接口。目前消费级主流接口是 SATA 和 M.2。采用 SATA 接口的硬盘通常是 2.5 英寸“盒状”的,通过 SATA 线连接到主板,通常用于较低速的 SSD。采用 M.2 接口的硬盘是条状的,相比采用 SATA 接口的硬盘更为紧凑。首先需要关注 M.2 接口的物理尺寸,比如 2280 表示宽 22mm、长 80mm,购买前需要关注接口和硬盘的尺寸是否一致。同时 M.2 插槽分为 M Key 和 B Key,硬盘分为 M Key、B Key、B+M Key 三种,第三种硬盘同时兼容两种插槽,但是前两种硬盘都只兼容对应插槽。

然后介绍协议。目前消费级主流协议是 SATA 和 NVMe,后者用于现代高性能 SSD。SATA 接口承载 SATA 协议,M.2 接口承载 SATA 协议或 NVMe 协议(两者都支持或只支持其一均有可能)。举例来说,如果一块硬盘是 B+M Key 的 SATA 硬盘,同时你的主板接口是 M key,且只支持 NVMe(这在高端主板上并不罕见),那么,尽管它们物理形状上能兼容,但实际上无法正常工作。

TIP

判定硬盘与主板的兼容性远比内存复杂,如果你感到疑惑,可以忽略这一节,直接求助大模型。

单位与进制

不妨设想这两个场景:你开通了千兆宽带,但是下载文件速度只有 100+MB/s。你选购了一块 1TB 的硬盘,但是格式化后显示容量只有 900+GB。难道是商家在虚假宣传?非也。前者与单位有关,后者与进制有关。

先介绍单位。衡量信息量的最小单位是 bit(音译为“比特”)。一个 bit 可以取 0 或 1。你抛一枚硬币,观察它的结果,抛硬币结果的信息量就是 1bit。有些场景下 bit 使用起来不够方便,因此类比 12 瓶饮料为一打,我们将 8 个 bit 捆在一起,称为一个 byte(译为“字节”)。在通信领域,“千兆” 的含义是 1000Mbps,即每秒传输千兆比特的数据。在显示时,假设显示下载速度为 100MB/s,表示每秒传输 100 兆 字节 的数据。一般约定大写的 B 表示 byte,小写的 b 表示 bit。它们之间有 8 倍的换算关系。

我们接着介绍进制。在十进制下,我们称 103 为“千”,106 为“兆”。但是,在计算机领域,二进制更为方便,因此可以把 210=1024 称为“千”,220=10242 称为“兆”。尽管 1000 和 1024 相差很小,但是平方之后,约有 5% 的差异。硬盘厂商使用 1000 进制,而操作系统使用 1024 进制,这就能解释为什么硬盘容量好像“缩水”了。

电源

简介

电源,即 power supply unit,是整台计算机的“发动机”。它的作用是将 220V 的交流电,转为稳定的、多种电压的直流电。比如 USB 需要 5V,CPU、RAM 等部件需要 1V 左右。

尽管常被忽视,但是电源是至关重要的组件。稳定纯净的直流电是所有精密半导体器件运行的前提。

功率

功率是电源的关键参数,就像发动机的“马力”一样。电源功率是否足够直接决定计算机能否正常运行。

值得注意的是额定功率和峰值功率这两个概念。电源的功率通常指的是它的额定功率,即长时间运行时,能持续、稳定输出的最大功率。但是现代的 CPU、显卡通常都有如“睿频”等自动超频机制,突发负载时,短时间内这些组件的功耗会远高于它们的额定功耗。对于 Ryzen 9950X + RTX 5090 这种旗舰组合,峰值功率能轻松超过 1000W。因此,电源的功率不能仅满足各个部件的额定功耗,还要留有一定余量。

电源效率

上文提到,电源的功能是将交流电转换为直流电。既然发生了能量形式的转换,那自然伴随着能量的损失,这就引出了电源效率这个概念。它表示电源输出功率与输入功率的比值。更高的电源效率意味着被浪费的能量更少,从而电源产生的废热更少。因此高效率的电源往往会更安静,甚至部分旗舰级钛金电源能使用无风扇设计。

电源的效率并不是一个恒定值,它会因负载功耗而变化(也就是一条曲线)。为了便于比较电源效率,我们有必要制定一个清晰易懂的标准。

目前一个被广泛采用的认证标准是 80 PLUS 认证,目前在消费级领域有如下分级:

  • 白牌 (Standard) / 铜牌 (Bronze): 入门级。
  • 金牌 (Gold):在价格与电源效率间达成平衡。
  • 白金 (Platinum) / 钛金 (Titanium):效率高,但价格昂贵。

作为参考,在 230V 电压(接近中国市电环境)、50% 典型负载下,铜牌认证要求效率达到 88%,金牌则高达 92%,而顶级的钛金更是达到了 96%。

显示器

简介

显示器,即 display 或者 monitor,作用是显示图像。有诸多指标来衡量一款显示器的优劣,我们会在这一节逐一介绍。

分辨率与 PPI

分辨率,即 resolution,用于衡量显示器的像素(pixel)数量。PPI 即 pixels per inch 的缩写,用于衡量显示器的像素密度。

现实世界的图像是连续的,但我们不可能制造一款无限精细的显示器,它由不可再分的显示单元组成。这种显示图像的最小单元,被称为像素。由于显示面板多为矩形,因此常用“横向像素数 × 纵向像素数”来描述一款显示器的分辨率。比如 1920 × 1080 表示横向有 1920 像素,纵向有 1080 像素。

仅靠分辨率是无法描述显示的精细程度的。比如分辨率相同时,一台大尺寸电视的画面显然不如一台笔记本细腻。因此,像素密度 PPI 也是极为重要的指标。PPI 越高意味着越难分辨出单个像素。在一定的观看距离下,PPI 达到一个阈值后人眼就无法分辨单个像素了,即达到了“视网膜屏”(retina)的要求。

RGB 与色域

人眼中有三种视锥细胞,分别对红、绿、蓝三种颜色的光敏感。这个现象可以说是彩色显示的基础。即我们不需要让显示器发出和物体完全一致的光谱,我们只要选定一组原色,调配它们的光的比例,就能“欺骗”人眼感受到一样的颜色。

在计算机领域,RGB 显色被广泛使用。这三个字母分别是 red, green, blue 的缩写。我们可以用一个 0 到 255 之间的值表示某种原色的强弱,用三个这样的值表示一种颜色。比如,(255, 0, 0) 就表示纯粹的红色。

遗憾的是,仅靠三原色的混合是无法表示出人眼能够看到的所有颜色的,而只能表示人眼能看到的色彩空间的一个子集。原色的颜色不同,我们会得到不同的子集,即得到不同的色域。你可以这样类比:三个顶点就可以唯一确定一个二维平面上的三角形。三个顶点就是我们的三原色,内部的点就是三原色以不同比例混合得到的颜色。

应用最广泛的色域是 sRGB 色域。色彩空间比 sRGB 更大的色域称为广色域。比如 Adobe RGB 与 DCI-P3,在设计、印刷领域有着广泛应用。

广色域需要硬件与操作系统的支持,否则部分情况下颜色的显示会有偏差。假如图片是 sRGB 色域的,显示器是 DCI-P3 色域的。图片的 (255, 0, 0) 表示在 sRGB 色域下的纯粹红色。如果不经转换直接将这个数据交给显示器,那么会显示 DCI-P3 色域下的纯粹红色。而 DCI-P3 色域比 sRGB 色域更广,这两个色域的 “纯红色” 其实是不同的颜色,从而导致图片显示偏色。

TIP

第一段提到的现象的名称叫“同色异谱”,感兴趣的读者可以自行搜索了解。

色深

上文提到,我们用 0 到 255 间的值来表示某种原色的强弱,即每种原色有 28=256 种取值。我们把这种表示称为 8 位色深(bit depth)。随着技术演进,我们可以将色深扩展到 10 位甚至 12 位。

色彩空间是连续的。增加色深意味着可以在色彩空间中取更多点,消除颜色渐变时的断层(即“色带”现象),使得颜色过渡更加平滑。由于人眼对亮度较为敏感,在高亮度下更易察觉到微小的色差,因此,更高的色深是支持高亮度显示的前提,否则由于色深不足会出现肉眼可见的断层。

对比度

对比度表示显示器能显示的“纯白”与“纯黑”之间的亮度差异。高对比度的显示器“黑”得下去,从而能呈现更好的暗部细节,比如显示夜景画面。(为什么有些显示器显示“纯黑”画面也在发光?我们会在下文的 “显示技术” 章节进一步解释)

HDR

HDR,即 high dynamic range,翻译为高动态范围。与之对应的概念是 SDR,即 standard dynamic range,翻译为标准动态范围。

我们用 nit(尼特)这个单位来衡量显示器的亮度,它表示单位面积的发光强度。SDR 显示器的峰值亮度通常为 100 nit 到 300 nit,而 HDR 显示器可以达到 600 nit 甚至更高。在显示太阳、烟花这些高亮度画面时,HDR 显示器有着极大优势,能显著增强画面的真实感。

我们可以通过“花火大会”这个场景,帮助你将上面的概念串联起来。

  • 峰值亮度:高峰值亮度能完美还原火花炸裂瞬间的刺眼感,让你身临其境。
  • 对比度:不仅烟花要“亮”起来,地面也要能“暗”下去。高对比度显示器能完美还原夜晚的人物和风景,而不是一片灰蒙蒙。
  • 色域:烟花多姿多彩,显示器要力求还原现实世界的万千颜色。
  • 色深:高色深确保在高亮度下也能完美地展现烟花的颜色渐变。

TIP

www.wide-gamut.com 这个网站可以测试你的显示器的色域及对 HDR 的支持。

刷新率

刷新率,即 refresh rate。上文介绍的概念都是衡量静态画面的。但我们不仅满足于显示照片,我们还要让显示的内容动起来。刷新率衡量每秒画面刷新的次数,单位为 Hz。

如果刷新率是 1 Hz,在你眼中只是一张张照片在切换。当刷新率达到 10 Hz,你会感受到画面在动,但在一帧帧跳跃。达到 24 Hz,即大部分电影的帧率,得益于摄影机的动态模糊,你感到画面是基本连续的。但在电子游戏中,24 Hz 会显得很卡顿。达到 60 Hz,画面较为流畅,对于轻度游戏已经足够。60 Hz 以上被称为高刷新率,在玩 FPS 游戏时,144 Hz 的显示器带来的体验是 60 Hz 显示器无法比拟的。撰写本文时,电竞显示器的刷新率已经能达到 480 Hz,人眼很难察觉到相邻画面间的跳变。

刷新率是显示器的“上限”,而画面的流畅性也取决于 FPS。前者用于衡量显示器每秒能显示多少帧,后者描述 GPU 每秒产生多少帧等待显示。因此,高刷显示器需要搭配高性能硬件才能物尽其用。

TIP

与此有关的生理现象叫“视觉暂留”,感兴趣的读者可以自行了解。

显示技术概览

目前主流的显示技术是 LCD 与 OLED。

  • LCD

LCD 是 liquid-crystal display 的缩写,即液晶显示。它的显示原理是发出背光,控制液晶选择性遮蔽部分光源,从而显示我们想要的画面。

LCD 优点是技术成熟,价格低廉,使用寿命长。

LCD 缺点主要来自背光显示机制。不管显示什么内容,哪怕绝大部分区域都是纯黑,我们也需要点亮整个背光。而液晶只能遮蔽,但不可能完全阻挡光线,因此 LCD 显示器暗不下去,对比度不高。

Mini-LED 是对这一缺陷的补救。通过使用大量的微型发光二极管作为背光光源,我们能实现背光的分区控光,让不需要的区域彻底暗下去,从而缩小与 OLED 显示的差距。

TIP

LCD 面板还可以继续细分为 TN、IPS、VA 等类型,每种类型各有优劣。这里不再继续展开。

  • OLED

OLED 是 organic light-emitting diode 的缩写,译名为有机发光二极管。

OLED 显示器的每一个像素也由若干子像素组成(如以红、绿、蓝三个子像素组成一个像素,或是其他排布方式)。但与 LCD 不同,OLED 的每一个子像素都可以“自发光”,而无需依赖背光光源。

这个显示原理使 OLED 有着 LCD 望尘莫及的对比度。因为 OLED 屏幕显示纯黑时就是真正的黑,每一个子像素都可以彻底关闭不发光。因此显示深色内容时,OLED 相比 LCD 更加省电。同时,子像素独立控制使 OLED 有更快的响应速度,显示迅速变化的画面时不容易出现“拖影”现象。

OLED 的缺点在于使用寿命。随着时间推移,有机发光材料寿命会逐渐衰减,发光效率降低。更为致命的是,日常使用场景下(子)像素的磨损是不均衡的,因为像导航栏、任务栏这些地方,显示的内容通常是静止不动的。这会导致显示其他内容时,像素衰减的区域会出现永久的残影,即常说的“烧屏”现象。对于体验机这种长期高亮度显示桌面的使用场景,“烧屏”现象十分普遍。

随着技术演进,OLED 的寿命越来越长。厂商在软件层面也采取了诸多优化来平衡子像素的磨损。因此,日常使用不必过分担心 OLED 的磨损。只需牢记一条:不要长时间高亮度显示静止画面。

还有其他的显示技术:

  • E Ink

E Ink 即“电子墨水屏”。以黑白墨水屏为例,它的显示核心是极多的微小黑白粒子。通过施加电场,让黑色或白色粒子移动到像素顶部或底部,从而显示画面。而粒子就位后,不需要额外供电就能维持这个状态。阅读体验与纸质书别无二致。因此,E Ink 特别适合显示静态画面(比如超市里的价格标签)。但由于粒子移动速度较慢,E Ink 的刷新率极低,无法流畅播放视频或运行游戏。

  • Micro-LED

极为先进的显示技术。每一个发光单元都是微型(micro)的 LED 灯珠。有寿命长(因为不是有机发光材料),子像素自发光的优点。可以说 Micro-LED 兼具 LCD 与 OLED 的优点。但 Micro-LED 技术难度极高,成本也难以控制,因此在撰写本文时尚未普及。

接口

VGA

一个历史悠久的接口。VGA 传输的是模拟信号,它不抗干扰、也无法支撑高分辨率、高刷新率、HDR 等新技术。因此,在现代设备中,VGA 被 HDMI、DisplayPort、USB-C 等接口彻底取代。但在较老的设备(比如老教室的投影仪)上你还能见到它的身影。

HDMI

目前的主流接口之一,在电视机上被广泛应用。

需要注意 HDMI 的设备与线缆都有版本之分。如从 HDMI 2.0 开始支持 HDR,从 HDMI 2.1 版本开始支持 4K@120 Hz 显示。

HDMI 有多种接口类型,但在日常生活中见到的大部分都是 A 型接口。

DisplayPort

常简称为 DP 接口。得益于免认证、免授权费,对 G-SYNC / FreeSync 等自适应刷新率技术有良好支持等优势,DP 接口在显示器领域十分普及。

同样,DP 接口与线缆也有版本之分。比如 HDR 显示需要 DisplayPort 1.4 及以后的版本。

DP 接口有不同形态,目前较为普及的有这两种:

  • 标准 DisplayPort

尺寸相对较大。采用卡扣设计,因此连接非常稳固。需要注意拔出它的时候要按下释放按钮,蛮力拔出会损坏设备。

  • USB Type-C

严格来说它不是 DP 接口本身,而是 DisplayPort 信号传输的载体。现在有很多笔记本电脑、平板电脑和智能手机都使用 USB-C 来传输 DP 信号(称为 DisplayPort Alt Mode),用于连接显示器。(但不是所有接口与线缆都支持,即所谓的“全功能” USB-C)

TIP

此处没有费笔墨描述接口的形状,因为这些接口的形状差别极大,几乎不可能混淆。读者可以自行搜索获取相关图片。