看不见却无处不在:聊聊那些神奇的底层科技硬件:HBM, DDR5, Flash....

牛财金
2025-08-31

为什么你的手机能秒开微信?

为什么电脑玩游戏不卡顿?

为什么ChatGPT能瞬间“思考”并回答你一长串话?

这一切的背后,都离不开一个沉默却关键的‘记忆系统’——存储芯片

今天,我们就来一场存储芯片的深度旅行,从你熟悉的U盘、内存条,到如今AI芯片里的“速度之王”——HBM(High Bandwidth Memory,高带宽内存)

准备好了吗?出发!


🧱 第一站:存储芯片的“家族图谱”:

想象一下,我们的大脑有两种记忆方式:

  • 一种是快速但短暂的记忆(比如心算)
  • 一种是缓慢但持久的记忆(比如记住童年往事)

存储芯片也分“快慢”,它们构成了现代电子设备的“记忆系统”。

📊 主流存储芯片家族一览:

芯片类型
中文名
特点
常见用途
DRAM
动态随机存取存储器
快、易失(断电数据消失)
手机/电脑内存(RAM)
NAND Flash
闪存
慢、非易失(断电不丢)
手机存储、U盘、SSD硬盘
NOR Flash
闪存(另一种)
慢、非易失、可直接执行代码
嵌入式系统、BIOS
EEPROM
电可擦可编程只读存储器
极慢、非易失、可小量修改
单片机、设备配置存储
HBM
高带宽内存
极快、易失、堆叠封装
AI芯片、GPU、超级计算机

一句话总结

  • NAND/NOR/EEPROM

    :是“长期记忆”,用来存东西(照片、程序、设置)。


  • DRAM

    :是“短期记忆”,用来临时处理数据(打开的网页、运行的游戏)。


  • HBM

    :是“闪电记忆”,专为AI和超级计算设计的“记忆加速器”。



⚡ 第二站:DRAM——内存条的“日常英雄”!

我们先从最熟悉的 DRAM 说起。

🧩 原理:像“蜂巢”一样的电容阵列。

DRAM 的每个“记忆单元”就是一个微小的电容,充上电代表“1”,放电代表“0”。但它有个问题:电容会漏电,所以必须每隔几毫秒刷新一次——这就是“动态”(Dynamic)的由来。

🧠 想象一下:你有一排水杯,每个杯子里的水代表数据。但杯子会漏水,所以你得不停加水——这就是 DRAM 的“刷新”机制。

📈 代表产品:DDR 系列

  • DDR3/DDR4/DDR5

    :就是你电脑里的内存条。


  • 带宽(数据传输速度):从 DDR3 的 ~17 GB/s 到 DDR5 的 ~50 GB/s。

💡 但!当 AI 需要处理千亿参数时,这个速度……不够快!


💾 第三站:NAND Flash——U盘和SSD的“仓库”!

🧩 原理:用“浮栅晶体管”锁住电子。

NAND Flash 的每个单元是一个晶体管,通过“捕获”电子来存储数据。电子一旦被捕获,即使断电也不会跑掉——所以它是非易失性的。

🧠 想象:你在一个房间里关住一群小猴子(电子),门一关,它们就出不来,数据就“存”住了。

📈 用途:

  • 手机存储(128GB、256GB);
  • U盘、SSD固态硬盘;
  • 价格便宜,容量大,但读写速度比DRAM慢100倍以上;

⚠️ 所以它不能当“内存”用,只能当“仓库”。


🔧 第四站:NOR Flash 与 EEPROM——“小而精”的嵌入式专家

NOR Flash:

  • 可以直接运行代码(XIP:eXecute In Place)
  • 用于手机启动、路由器固件、汽车ECU
  • 速度比NAND慢,但支持“随机访问”

EEPROM:

  • 可以按字节修改(NAND要按“块”擦除)
  • 用于存储设备的配置参数(如WiFi密码、屏幕亮度)
  • 容量极小(几KB到几MB),但寿命长

🧠 想象:NOR Flash 是“可以边看边写的书”,EEPROM 是“可擦写的便利贴”。


🏎️ 第五站:HBM——AI时代的“超级跑车”!

现在,重头戏来了!当AI、大模型、GPU计算需要每秒处理TB级数据时,传统DRAM就像“小电驴”,而 HBM 就是“F1赛车”

🚀 什么是 HBM?

HBM(High Bandwidth Memory),高宽带内存, 是一种3D堆叠式DRAM,专为高性能计算(HPC)、AI、GPU 设计。

它不单独存在,而是直接“焊接”在GPU或AI芯片旁边,像“贴身保镖”一样提供超高带宽。


🧩 原理:3D堆叠 + 硅通孔(TSV)+ 微凸块;

传统DRAM(如DDR)是“平铺”在主板上,数据要跑很远。而 HBM 是把多个DRAM芯片垂直堆叠起来,再用硅通孔(TSV) 像“电梯”一样连接上下层。(当然,DDR5也开始了堆叠,区别?我们以后再讲!)

🧠 想象:

  • DDR 内存条:像一栋平房,房间分散,走路要时间。
  • HBM:像一栋摩天大楼,房间上下叠在一起,坐电梯直达,距离短、速度快

📊 HBM vs DDR5:速度对比:

指标
DDR5 内存条
HBM3(最新一代)
带宽
~50 GB/s
~1 TB/s
(20倍!)
功耗
较高
更低(单位带宽)
占用面积
极小(垂直堆叠)
成本
便宜
昂贵(10倍以上)
应用
普通电脑
AI芯片、GPU、超算

💥 1 TB/s 是什么概念?相当于每秒传输100部高清电影!而你的宽带可能才100 MB/s……


🏗️ HBM 的“堆叠艺术”

  • 一个 HBM 模块通常由 4~12 层 DRAM 芯片堆叠而成。
  • 每层之间通过 TSV(硅通孔)微凸块(Microbump) 连接。
  • 整个模块通过 2.5D 封装(硅中介层)与 GPU 或 AI 芯片连接,距离极短,延迟极低

🧠 想象:HBM 和 GPU 是“连体婴儿”,数据传输几乎零延迟。


🌐 第六站:HBM 用在哪里?——AI与未来的“大脑”!

🧠 1. AI大模型训练

  • 英伟达 H100/A100 GPU

    :标配 HBM2e/HBM3


  • AMD MI300X

    :使用 HBM3,带宽高达 5 TB/s


  • 谷歌 TPU、微软 Maia

    :全部依赖 HBM


💬 没有 HBM,就没有 ChatGPT、Sora、Gemini 这些“智能大脑”。

🎮 2. 高端游戏显卡

  • PS5、Xbox Series X 使用 GDDR6 + HBM 混合方案
  • 未来高端GPU将全面转向HBM

🌌 3. 超级计算机 & 数据中心

  • 全球Top 500超算中,90%的顶级系统使用HBM

🔮 第七站:未来发展方向!

1. HBM4 即将登场

  • 带宽目标:2 TB/s 以上
  • 采用 混合键合(Hybrid Bonding) 技术,连接更密、功耗更低

2. 容量更大

  • 当前单颗HBM3最大容量:36GB
  • 未来目标:64GB+,满足千亿参数模型需求

3. 成本下降

  • 目前HBM占GPU成本30%以上
  • 随着量产和封装技术进步,价格将逐步下降

4. 与Chiplet(芯粒)结合

  • 将CPU、GPU、HBM 封装在一起,形成“超级芯片”
  • 英特尔、AMD、台积电都在布局

🧩 总结:一张图看懂存储芯片家族:

图1. 存储芯片家族树图

记住一句话

  • NAND 是“仓库”

    (存得多,搬得慢)


  • DRAM 是“办公桌”

    (用得快,但要不断整理)


  • HBM 是“闪电办公桌”

    (又大又快,就在你手边)



❤️ 结语:HBM,AI时代的“隐形冠军”

HBM 虽然你从没见过它,但它正支撑着你每一次与AI对话、每一场3A游戏、每一次云服务调用。

它是半导体皇冠上的明珠,是中国突破“卡脖子”技术的关键战场之一(长鑫存储、华为海思正在攻关)。

下一次,当你问 ChatGPT:“你能帮我写篇文章吗?”别忘了,背后有一群“堆叠的DRAM小芯片”,正以每秒一万亿字节的速度,为你“思考”。

这就是科技的魅力——看不见,却无处不在。

扩展阅读

成本差10倍!性能差20倍!DDR5和HBM的“堆叠”革命为何无法互相替代?

存储芯片HBM概念股龙头启动、这些A股公司已率先布局

分享