今天分享的是AI算力系列深度研究报告:《AI算力专题:从超微电脑创新高看AI算力产业链高景气》。
(报告出品方:太平洋证券)
报告共计:10页
海外巨头指引 Al 算力产业链高景气
超微电脑业绩指引大幅上调反映Al 算力需求强劲。1月 19日,超微电脑(SMCI.US)表示,由于市场和终端客户对其机架规模、人工智能和整体 lT 解决方案的需求强劲,公司上调 202402指引,此前预测 202402 销售额 27-29 亿美金,此次指引大幅上调为 36-36.5亿美金,反映 Al 算力需求强劲。同时,基于对 Al 前景的长期看好,超微电脑远期营收目标指引超过 200 亿美元。
Meta 将大力采购 H100 GPU 用于 Llama3 训练。Meta 公司首席执行官扎克伯格于 1 月 18 日 在社交媒体上宣布, Meta 目前正在训练下一代大语言模型 Llama3 并建设大型计算基础设施,以支持人工智能的研究、开发和生产,预计到 2024 年年底将拥有近 35 万个英伟达的 H100 GPU, Meta 人工智能算力总和达 60 万个英伟达 H100 图形处理器。
0penAl 或将筹资全球性的半导体晶圆厂网络。据彭博社援引知情人士报道,0penAl 首席执行官山姆·奥特曼(Sam Altman)正在谋划用数十亿美元资金建立一所具备一定规模的半导体晶圈厂。据彭博社报道,奥特曼认为,人工智能技术在未来几年将变得非常普遍,足以支持自己的半导体供应链。此前,据英国《金融时报》报道,0penAl正在开发一种新的AI 模型,该模型将是 GPT-4 的重大升级,预计将于今年晚些时候发布。训练 GPT-4用了大约 25000块A100 GPU,而训练GPT-5 还需要5万张H100。
AMD 大幅上调A|芯片市场规模预测。2023年12月7日,在Advancing Al 大会上,AMD CEO苏姿丰预测,数据中心 A| 芯片的总市值将突破 450 亿美元,远高于AMD 6月预测的 300 亿美元。到 2027 年,市场将进一步扩张至 4000亿美元,超过其先前预测的两倍有余。
AI 算力需求快速增长。大模型依赖高算力的支持,模型需要的准确性越高,训练该模型所需 的计算力就越高。以 ChatGPT 模型为例,公开数据显示,其所使用的 GPT-3 大模型所需训练参数 量为 1750 亿,算力消耗为 3640PF-days(即每秒运算一千万亿次,运行 3640 天),需要至少 1 万 片 GPU 提供支撑。据统计,当模型参数扩大十倍,算力投入将超过十倍,模型架构、优化效率、 并行处理能力以及算力硬件能力等因素均会影响具体增加的倍数。
大模型需求带动下,全球 AI 服务器市场规模有望快速增长。IDC 预计,全球 AI 服务器市场规 模将从 2022 年的 195 亿美元增长到 2026 年的 347 亿美元,五年年复合增长率达 17.3%;其中,用 于运行生成式 AI 的服务器市场规模在整体 AI 服务器市场的占比将从 2023 年的 11.9%增长至 2026 年的 31.7%。
美国加大制裁力度,算力国产化有望加速
美国出台新规限制中企利用美国数据中心训练A1 大模型。1月 27 日消息,美国商务部长雷蒙多表示,拜登政府将提议要求美国云计算公司确定外国实体是否正在访问美国数据中心以训练人工智能模型。雷蒙多称:“我们不能允许非国家行为者、中国或我们不希望访问我们云计算系统的人来训练他们的模型。我们对芯片实施了出口管制。美国云计算数据中心也大量使用芯片,我们也必须考虑关闭这条可能涉及恶意活动的路径。”
国内智能算力需求快速增长。根据 IDC 测算结果显示,2022年中国智能算力规模达 259.9每秒百亿亿次浮点运算(EFLOPS),2023 年将达到 414.1 EFLOPS,预计到 2027 年将达到 1117.4EFLOPS。
英伟达占据国内 AI 加速卡市场八成以上份额。根据艾瑞咨询测算,2022 年中国的 AI 芯片市场规模约为 385 亿元,到 2027 年将有望达到 2164 亿元。据 IDC 数据,2022 年中国 AI 加速卡(公 开市场)出货量约为 109 万张,其中英伟达市占率为 85%,华为市占率为 10%,百度 2%、寒武纪和燧原均为 1%;2023H1 中国加速芯片市场规模超 50 万张,本土品牌出货量超 5 万张,占比达 10%。
报告共计:10页