AMD发布最强AI芯片 Instinct MI300X AI 加速器和 Instinct MI300A 数据中心 APU,声称比 Nvidia 的竞争 GPU 领先 1.6 倍。
与 Nvidia 竞争产品相比,在以下几个关键方面展示了显著优势:
配置方面
内存容量:MI300X:拥有 192 GB 的 HBM3 内存,是 Nvidia GPU 的两倍以上。
MI300A:提供 128 GB 的 HBM3 内存,仍然比 Nvidia H100 SXM GPU 的内存容量高 1.6 倍。
带宽:MI300X 和 MI300A:都提供高达 5.3 TB/s 的带宽,这在当前的 GPU 市场中是非常高的。
计算性能
MI300X:在 AI 推理工作负载中,性能比 Nvidia H100 高出 1.6 倍。
在 HPC 工作负载的 FP64 和 FP32 向量矩阵吞吐量方面,比 Nvidia H100 高出 2.4 倍。
MI300A:在 FP64 Matrix/DGEMM 和 FP64/FP32 Vector TFLOPS 方面,声称比 Nvidia H100 有 1.8 倍的优势。
在 OpenFOAM HPC 测试中,比 Nvidia H100 快 4 倍。
详细配置
Instinct MI300X AI 加速器:
设计:采用“3.5D”封装技术,结合了 3D 堆叠的 GPU 和 I/O 芯片组。
性能:拥有 304 个计算单元、192GB 的 HBM3 内存和 5.3 TB/s 的带宽。
能效:在某些 AI 推理工作负载中,性能比 Nvidia H100 高出 1.6 倍。
内存容量:比 Nvidia GPU 的 HBM3 内存容量多两倍以上,达到每个 192 GB。
系统配置:设计为以八个为一组工作,整体系统拥有 1.5TB 的总 HBM3 内存和 10.4 Petaflops 的性能。
Instinct MI300A 数据中心 APU:
创新:结合了 CPU 和 GPU 的世界首款数据中心 APU。
构成:包含 24 个 Zen 4 CPU 核心和 228 个 CDNA 3 计算单元。
内存:拥有 128GB 的 HBM3 内存和 5.3 TB/s 的带宽。
能效:在 FP64 Matrix/DGEMM 和 FP64/FP32 Vector TFLOPS 方面,声称比 Nvidia H100 有 1.8 倍的优势。网页链接:https://www.amd.com/en/products/accelerators/instinct/mi300.html