主页: 元存储博客
文章目录
- 前言
- 1. JEDEC 规范
- 2. HBM 发展历程
- 3. HBM 应用场景
- 4. HBM 市场前景
- 5. 发展挑战
翻译自: https://namu.wiki/w/HBM
前言
NVIDIA H2 上的 HBM100e。
1. JEDEC 规范
2. HBM 发展历程
HBM
技术曾被视为一种噱头,因为它与GDDR
相比没有明显的优势。当第一代HBM
问世时,与12
个384
位的GDDR
相比,四个4096
位的HBM
在带宽和容量方面的差异并不大,但价格昂贵。此外,市场没有太多需要大量图形内存的游戏,并且HBM
主要用于大学或公司的人工智能实验室,因此需求比普通的GDDR
少。因此,三星电子
在2019
年认为无法销售HBM
,并暂时退出了该业务。
然而,随着性能的提升,GDDR
和HBM
之间的技术差距也越来越大。尤其是在GDDR
方面,由于故障限制导致改进速度缓慢,而HBM
的技术发展相对较快,因为通过良好堆叠内存芯片,容量和带宽可以翻倍。此外,超大规模人工智能领域的需求激增,对内存要求高,为了充分利用这些需求,几乎必须采用HBM
。这是因为容量很重要,但对于在短时间内处理大量模型数据也很重要。
由于基本结构的差异,HBM
在带宽方面远优于GDDR
。2020
年2
月,三星
开始量产Flashbolt HBM2E
,支持最高8-Hi
、3.2
GT/s
的速度,每个堆叠总共16GB
,带宽为410GB/s
。SK海力士
也开发了HBM2E
,支持最高8-Hi
、3.6
GT/s
的速度,总容量为16GB
,从2020
年7
月开始量产。2020
年11
月16
日,NVIDIA
宣布推出升级版的A100 80GB
计算卡,HBM2E
的速度为3.2
Gbps
,总带宽为2
TB/s
。
2021
年,SK海力士
宣布开发HBM3
,并于2022
年1
月27
日发布JEDEC
的HBM3
标准规范。每个堆叠的最大速度为819GB/s
,在双堆栈配置中约为1.6TB/s
,而384
位配置的GDDR6X SGRAM 21 Gbps
规格仅超过1TB/s
,因此,如果HBM3
驱动的产品没有延迟交付,它们将暂时具有带宽优势。
尽管三星电子
在2019
年暂时退出了开发,但在2022
年成功开发了第四代HBM
,命名为HBM3 "Icebolt"
。然而,由于比SK海力士
晚一年开始开发,因此很难将其交付给NVIDIA
。预计三星
将在2023
年底至2024
年1
月之间开始量产HBM3
。
截至2023
年,HBM
在存储半导体市场的容量份额还不到1%
,但销售额已达到存储市场的10%
,使其成为高附加值存储器之一。随着对人工智能芯片的需求迅速增加,对于与之相匹配的处理速度的需求也在增加,HBM
市场正在蓬勃发展。
HBM市场份额
数据来源:TrendForce
截至2023
年,SK海力士
和三星
合计占据市场份额的90%
,其中SK海力士
占53%
,三星
占38%
,剩余10%
由美光控制。特别是在最新的HBM3
情况下,SK海力士
几乎占据市场的主导地位,预计在2024
年占据90%
的市场份额。英伟达
在通用AI
芯片市场上占据80%
的市场份额,在销售与其GPU
配套的产品方面具有显著优势,因为它正在与SK海力士
合作。
2023
年8
月,SK海力士
成功研发了HBM3E
。
2023
年5
月,据报道,三星
的下一代HBM
将被命名为HBM3P "Snowbolt"
。同年9
月,宣布公司已同意向NVIDIA
供应HBM3
。然而,据了解,收到HBM3
样品的NVIDIA
担心产量问题,因此在没有达成最终合同的情况下签署了有条件的临时合同。特别是,由于NVIDIA
已决定将其下一代HBM
内存命名为"HBM3E"
,据报道,三星电子
已要求更改名称为"HBM3P"
。
2023
年10
月,三星电子
宣布成功开发了HBM3E
,也被称为"Shinebolt"
。
2023
年11
月,NVIDIA
宣布配备HBM3E
的H200
和B100
将于2024
年第二季度上市。AMD
和英特尔
也分别发布了配备HBM350
的MI3
和Gaudí 3
。
2023
年,HBM
市场总规模估计为40
亿美元,预计到2024
年将增长两倍,达到120
亿美元。预计SK海力士
在2023
年的HBM
收入将达到20
亿美元。
3. HBM 应用场景
高端AI服务器GPU搭载HBM芯片已成为主流趋势,还可应用于高性能计算(HPC)、超级计算机、大型数据中心、云计算等领域。
4. HBM 市场前景
随着生成式人工智能(AI)的持续火爆,市场对于高性能AI芯片的需求,也带动了此类AI芯片内部所集成的高带宽内存(HBM)的需求爆发。预计市场规模将从2022年到2026年前增长10倍(4年复合年增长率77%),从2022年的23亿美元增长至2026年的230亿美元。
HBM市场规模增长情况
美银还指出,这种对DRAM晶圆产能的增加需求可能会导致2025年非HBM用的常规DRAM出现供应短缺[1]。
“HBM3E芯片的尺寸大约是同等容量DDR5的两倍。HBM产品包括逻辑接口芯片,并且具有更加复杂的封装堆栈,这会影响良品率。因此,HBM3和3E需求将吸收行业晶圆供应的很大一部分。”
5. 发展挑战
5.1. 热挑战
“最大的挑战是热” 格林伯格说。“HBM 的位置靠近 CPU 和 GPU 会加剧发热, 它开始忘记85°C左右的东西,并且在125°C左右完全心不在焉。 [2]。
Ansys产品经理Marc Swinnen说。“功率可能是集成可实现的首要限制因素。任何人都可以设计一堆芯片并将它们全部连接起来,所有这些都可以完美地工作,但你将无法冷却它。"
5.2. HBM 和 AI
AI/ML 中存储和检索数万亿次计算需要内存。事实上,在某种程度上,添加更多的 CPU 并不能提高系统性能,因为内存带宽无法支持它们。这就是臭名昭著的“记忆墙”瓶颈。
5.3. 降低成本
人工智能客正在 LPDDR5X 接口和 HBM 接口之间做出重大的基本权衡。他们真的很想去 HBM。就技术而言,这是他们内心的愿望。唯一阻碍他们的是成本。
“降低HBM成本将是一个挑战,”Objective Analysis首席分析师Jim Handy说。“由于在晶圆上放置TSV的成本很高,因此处理成本已经明显高于标准DRAM。这阻止了它拥有与标准 DRAM 一样大的市场。“ 由于市场规模较小, 像设计成本和光罩成本无法通过规模量产摊低,导致单片成本更加高。
5.4. 制造问题
“HBM 领域的很多领域实际上更多的是关于制造问题,而不是知识产权问题,”Cadence 知识产权集团产品营销总监 Marc Greenberg 说。你需要弄清楚如何构建一个带有硅中介层的系统。
参考文献
[1] HBM需求有多强?美银:抢产能可能导致DRAM供应短缺
[2] https://semiengineering.com/hbms-future-necessary-but-expensive/
[3] https://semiengineering.com/choosing-the-correct-high-bandwidth-memory/
声明
本文仅为学习交流目的。
文中部分文字和图片来源于互联网,列在参考的文献,但可能有遗漏。如有侵权,请告知我删除。