在AI需求驱动下,存储行业迎来全面上行周期,从HBM到传统存储无一幸免。以美光为例,存储产品持续涨价推动其毛利率攀升至高位,该公司更是预计下一季度毛利率将达66-68%,刷新历史纪录,凸显本轮周期之猛烈程度远超以往。
存储产品的涨价本质上是市场供需关系的直接反映。本轮“供不应求”主要由AI服务器等需求爆发所引发。当前市场对存储周期上行已形成共识,本文将围绕以下核心问题展开深度剖析:
1)AI服务器中各类存储芯片扮演何种角色?当前AI存储面临哪些挑战?
2)三大原厂重点布局的HBM需求究竟如何?是否存在供需缺口?
3)AI需求爆发对传统存储市场带来哪些影响?供给能否及时跟上?
AI浪潮彻底重塑存储行业格局,推动HBM、DRAM、NAND、HDD等全品类产品进入全面上行周期。
从供需视角分析:①需求端,AI服务器重心从训练向推理转移,催生了对“低延迟、大容量、高带宽”存储的差异化需求;②供给端,存储厂商资本开支向高附加值的HBM与DRAM倾斜,形成结构性供需失衡,从而驱动产品价格大幅上涨。
本文先解答前两个问题,传统市场的影响将在下篇继续探讨。
当前AI数据中心的核心瓶颈在于“内存墙”——算力增长速度远超数据传输速度,导致GPU等计算单元空置率高达99%。
短期来看,HBM向16-Hi堆叠升级(带宽提升至16-32TB/s)与3D堆叠SRAM的商用(延迟压缩至2ns)形成互补方案;中长期则依赖存算一体架构的突破,彻底消除数据搬运延迟。
在AI存储旺盛需求下,HBM依然是三大原厂的重中之重,HBM4也将在2026年开启量产。
由于三大原厂(三星、海力士、美光)资本开支主要投向HBM,2026年HBM供应量有望增长60%以上。HBM需求量受AI芯片及CoWoS产能影响,预计将达42亿GB左右,HBM市场将呈现“供应紧平衡”状态。
下文将深入拆解存储层级的核心角色定位、破解“内存墙”的技术演进路径,并对HBM细分市场的供需情况展开全景解析,下篇则聚焦传统市场,进一步揭示本轮AI需求点燃的存储行业超级周期。
以下是详细分析
回归计算机存储最原始的两大性能维度:a. 存储容量,即数据仓库的大小;b. 延迟和带宽,即数据存取速度。按这两个维度,存储产品大致可分为四类——HBM、DRAM、NAND和HDD。其中,HBM是专为AI GPU而生的需求,通过CoWoS封装技术,直接置于GPU“脑壳”内,延迟极低;DRAM(内存条)读取延迟较短,是靠近算力端的“热存储”;两者同属DRAM大类。而HDD虽延迟较高,但具备大容量“冷存储”特性。
各类存储产品在AI服务器中的具体角色如下:
a)HBM:与GPU芯片3D堆叠,作为GPU的“专用显存”,具备高带宽、高功耗特点,价格昂贵。HBM是AI服务器的“性能天花板”,决定单GPU可承载的模型规模与响应速度。
b)DRAM(DDR5):数据交换枢纽,由CPU和GPU共用,连接HBM与NAND的“桥梁”。尽管DDR5速度慢于HBM,但容量大得多。DDR5是AI服务器的“内存基石”,其容量决定单服务器并发任务数,是处理并发任务的核心。
c)NAND(SSD):热数据仓库,高频访问数据的“快速持久层”,连接DRAM与HDD。作为AI数据中心的“性能-容量平衡者”,SSD是训练数据的“快速补给站”,也是推理服务的“快速响应核心”。
d)HDD:海量冷数据的低成本容器。HDD带宽最低,但容量大、成本低,适合低频访问的“冷数据”。HDD是AI数据中心的“容量基石”,决定整体数据存储规模。
由此可见,一条清晰的AI服务器数据流动路线:HDD冷数据->SSD预热->DRAM中转->HBM配合计算,各部分在训练和推理服务器中均不可或缺。
本轮存储大周期完全由AI需求驱动,因此AI存储的表现需从下游AI服务器市场入手。与上半年相比,AI服务器领域出现显著变化:
a)AI从训练向推理迁移:
①训练是“一次性投入”,而推理是商业化落地的“刚需场景”;
②训练端对性能要求更高,成本随性能提升而增加;推理则具有规模效应,可通过批量处理摊薄成本。
谷歌Gemini媲美GPT的性能表现,让市场重新审视英伟达GPU的领先优势在实际应用中并不显著。尤其在AI向推理侧重趋势下,通过规模化获得优势,定制ASIC芯片在推理端同样胜任。
相比AI训练服务器,AI推理服务器更注重DDR(并发任务)、SSD(快速响应)和HDD(大容量)。
b)算力转向存力:此前市场焦点在算力,认为算力越强模型响应越快。但算力之外,还需存力“投喂数据”。若存储端“吐数据”速度跟不上计算端,将导致算力“冗余”,即当前备受关注的“内存墙”问题。
“内存墙”瓶颈:大模型推理时,需先从HBM加载模型权重(GB级)与KV缓存(GB级)到GPU缓存,再执行计算——计算本身仅需微秒级,但数据搬运需毫秒级。以H100为例,HBM带宽3.35TB/s,单Token计算时间10微秒,但生成一个Token需加载10GB模型权重+20GB KV缓存,从HBM加载到GPU需约9毫秒,计算闲置率近99%。
上述现状衍生出两方面需求变化:一方面,推理服务器对DDR、SSD和HDD需求相对更多;另一方面,“内存墙”瓶颈需压缩传输距离、提高传输速度,以减少“等待时间”。英伟达收购Groq后,市场出现“SRAM替代HBM”的声音(SRAM即GPU芯片内部L2缓存)。但CES 2026中黄仁勋回应,SRAM速度虽快,容量仍偏小。由此推测,即使SRAM量产,仍将以“SRAM+HBM”形式共存,短期内不会替代HBM。
针对“内存墙”,主要有三种应对方案:
①HBM(提高传输速度):拉高堆叠层数,从12-Hi向16-Hi升级,在提升容量的同时,传输速度有望从B300的8TB/s提升至16-32TB/s,减少数据排队时间;
②SRAM(压缩传输距离):3D堆叠SRAM通过垂直堆叠多层SRAM芯粒,将KV缓存、模型轻量权重置于计算单元“随身口袋”(片上或近片存储)。待SRAM量产后,将形成“SRAM+HBM”组合(SRAM负责“快”,HBM负责“多”),有望将延迟从100ns大幅压缩至2ns附近。英伟达收购Groq正是看重其3D SRAM技术,当前核心厂商包括台积电、Groq、三星等。市场预期2026年下半年英伟达Rubin芯片有望融入Groq技术,实现存力提速。
③存算一体:将部分算力嵌入存储内部,消除算力冗余,提升存力效率和能效比。目前尚未在数据中心落地,预计2027年后逐步成为解决“内存墙”的途径。
数据中心及AI当前重心已从算力转向存力,在“内存墙”问题中,HBM迭代和SRAM应用将是短期内减少“等待时间”的有效方式。中长期,“存算一体”产品有望成为更优解。
附:英伟达收购Groq,主要是人才收购,同时获得Groq全部核心IP(LPU架构、TSP微架构、编译器技术)与硬件资产使用权。Groq创始人Jonathan Ross(谷歌TPU创始成员)及90%核心工程团队加入英伟达,Simon Edwards接任Groq新CEO。此举既能融合SRAM技术提升英伟达AI推理能力,也是防御性收购,避免技术落入竞争对手。
AI进入推理落地阶段,“内存墙”困境下,HBM仍是缓解“等待时间”的有效方式。因此,三大存储原厂(三星、海力士、美光)资本开支重心仍投向HBM。受益于AI需求,HBM是“从无到有”的直接增量,其需求量与AI芯片出货量直接挂钩。当前主流AI芯片(英伟达、谷歌、AMD)基本搭载HBM3E。三星HBM3E通过英伟达认证后已跟上步伐。目前三家厂商均已开始送样HBM4,待其顺利量产,下一代AI旗舰芯片将陆续配备HBM4。
尽管HBM由AI服务器率先带动,但其供需状况并非最紧张,原因在于存储厂商近年资本开支主要投向DRAM,尤其是高端HBM扩产。核心厂商表态可见:①海力士:增加投入以应对M15x的HBM4产能扩张;②三星:投入主要用于HBM的1c制程渗透及小幅增加P4L晶圆产能;③美光:专注于1gamma制程渗透和TSV设备建置。
HBM主要供应商为海力士、三星和美光,市场供应量取决于三家的HBM产能。资本开支集中投向HBM,推动产能快速爬坡。当前三家公司合计HBM月产能约39万片,海力士和三星领先,美光规模较小。随着资本投入持续增加,预计2026年末HBM月产能将提升至51万片左右,年增12万片。
值得注意的是,产能不等于出货量。例如三星HBM产能虽高,但因HBM3E工艺良率偏低且迟迟未通过英伟达认证,实际出货份额一度下滑至3成以下。当前HBM市场份额中海力士占据近半,美光和三星接近。随着三星HBM3E在四季度获得英伟达认证,其产能利用率和出货份额将回升,有望反超美光。
HBM供应端测算主要结合产能和良率。由于三大厂商垄断,HBM产能仅考虑这三家。从合计产能看,2025年四季度HBM月产能约39万片,2026年四季度将达51万片。考虑爬坡因素,预估2026年HBM总产能约543万片。单片12寸晶圆约能切割出514颗等效3GB HBM颗粒,则543万片产能可切出27.9亿颗(等效3GB),在50%综合良率下,2026年三家厂商可提供约41.9亿GB HBM供应量。
HBM均配备在AI芯片上,且AI芯片需CoWoS封装,因此通过“CoWoS->AI芯片->HBM”路径估算HBM需求量。结合行业预期,2026年CoWoS分配中英伟达仍占最大份额(超总量一半),谷歌、AMD和亚马逊也是主要客户。假设下图核心客户占据90% CoWoS需求,则2026年全球CoWoS需求量约128万片。
基于CoWoS量测算AI芯片出货量。以英伟达B300为例,单个CoWoS封装晶圆面积约得14个B300芯片(28个裸芯),则B300的35万片CoWoS产能对应约490万个B300芯片。单个B300芯片配备8个36GB HBM3E,即288GB HBM,那么490万个B300需14亿GB HBM。以此类推,2026年128万片CoWoS产能约对应42亿GB HBM需求量。综合HBM供应量(41.9亿GB)和需求量(42.1亿GB),2026年HBM市场呈紧平衡状态,主因三大原厂大力扩产所致。
本文主要介绍了各类存储在AI服务器中的角色及HBM供需情况,下篇将继续围绕AI对传统存储领域的影响展开。
本文由主机测评网于2026-03-15发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260331436.html