2026年,将成为AI服务器实现系统性升级的关键时间节点,硬件迭代与成本重构将同步加速。
摩根士丹利在最新研报中指出,AI服务器硬件正经历一场由GPU和ASIC推动的重大设计变革。2026年,英伟达即将推出的GB300、Vera Rubin平台和Kyber架构,以及AMD的Helios服务器机架项目,都将带来计算能力的跃升和机柜密度的显著提高。
与之匹配的,将是更高效的电源解决方案、全面普及的液冷散热方案以及更高规格的PCB和高速互联技术。这一系统性升级,也将使2026年的AI服务器迎来“不可估量的昂贵”时代。
AI服务器的市场需求仍在不断攀升。
大摩预测,仅英伟达平台而言,AI服务器机柜的需求将从2025年的约2.8万台,在2026年跃升至至少6万台,实现翻倍以上的增长。与此同时,AMD的Helios服务器机架项目(基于MI400系列)也取得积极进展,进一步加剧了市场对先进AI硬件的争夺。
目前,英伟达Blackwell平台,特别是GB200芯片,是AI服务器市场的核心驱动力。
到2026年,AI硬件将从H100/H200时代,全面转向NVIDIA的GB200/300(Blackwell平台)及后续的Vera Rubin(VR系列)平台所驱动的新周期。
芯片功率不断突破上限。从H100的700W TDP,到B200的1000W,再到GB200的1200W,直至2026年下半年登场的Vera Rubin(VR200)平台,其GPU最大TDP将飙升至2300W,而2026年末的VR200 NVL44 CPX更是高达3700W。
随着GPU功耗逼近4kW,传统风冷方案彻底失效,液冷成为唯一可行路径。英伟达已在GB200平台中将液冷作为标准配置,并与主要OEM厂商联合开发定制化冷板接口,确保热量高效传导至冷却回路。
此外,供电系统也面临重构。主流服务器厂商正从12V VRM向48V直流母线迁移,以减少转换损耗并提升电源响应速度。这些变化意味着未来的AI数据中心将不再仅仅是“放满GPU的机房”,而是一个集电力、冷却、信号传输于一体的复杂工程系统,其建设成本与运维难度将显著上升。
这些都是推高AI服务器成本的关键因素。
随着英伟达在下半年转向Blackwell Ultra平台的GB300/B300后,明年将迎来Vera Rubin平台所驱动的新一轮迭代周期。
从交付主体看,鸿海、广达、纬创、纬颖四家具备NVIDIA Certified Systems认证资质的ODM厂商,构成了当前GB200/GB300整机柜的主要供应方。其中,鸿海为首批完成GB200及GB300整机柜量产交付的厂商。
鸿海第三季度AI服务器机柜出货季增幅度高达300%。整体来看,鸿海2025年AI服务器收入预计将超过1万亿新台币的目标,占据40%的市场份额。管理层预计GB200与GB300不会出现重大过渡问题,并表示GB300将在2025年下半年主导出货。
近期,广达、纬创及纬颖11月营收齐创单月历史新高。广达、纬颖营收分别达1929.47亿元及968.85亿元新台币,环比增幅分别为11.4%和6.2%。最新数据显示,纬创表现最为突出,11月合并营收冲上2806.24亿元新台币,环比增长51.6%,同比增幅高达194.6%。
大摩预计,11月单月GB200出货量为5500柜,较10月增长29%。其中广达出货1000-1100柜、纬创1200-1300柜、鸿海约2600柜。
从2025年度GB200、GB300机架服务器各ODM厂出货的市场占比来看,鸿海占据过半市场份额,高达52%;纬创约占21%;广达约占19%;就产品类别而言,GB200占比高达81%,GB300则约19%。
分析预期,随着英伟达新款GB300架构AI服务器进入出货旺季,三家厂商本季业绩有望齐创新高,推动全年营收交出至少年增五成以上的优异成绩。
今年9月下旬,英伟达GB300 AI服务器开始出货。到2026年下半年,Vera Rubin系列将接力出货,其中包括电源、散热设计均与GB系列不同,这对于零部件厂商而言是出货重新洗牌的机遇,也带动了整个产业链的升级。
随着AI工作负载呈指数级增长,数据中心的功率需求也随之激增。以搭载NVIDIA GB200 NVL72或GB300 NVL72的设备为例,需配备多达8个电源架为MGX计算及交换机架供电。若沿用54V直流配电,在兆瓦级功率需求下,Kyber电源架将占用高达64U的机架空间,导致计算设备无安装空间。而在2025年GTC大会上,NVIDIA展示的800V边车方案,可在单个Kyber机架内为576个Rubin Ultra GPU供电;另一种替代方案则是为每个计算机架配置专用电源架。
传统的54V机架内配电系统专为千瓦级机架设计,已无法满足现代AI工厂中兆瓦级机架的供电需求。英伟达正将其电源供应策略提升至全新战略高度,通过下一代Kyber平台,将技术护城河从芯片算力延伸至整个数据中心的电力架构,意图定义未来AI工厂的标准。
英伟达的AI服务器电源战略“Kyber”正双线推进,其量产目标设定在2026年底前,早于市场普遍预期的2027年。
据天风国际证券分析师郭明錤分析,Kyber项目的参考设计范畴已显著扩展,不再局限于GPU与机柜层级,而是将整个数据中心的供电与基础设施纳入规划,包括800 VDC/HVDC配电和固态变压器(SST)的应用。也就是说,自Kyber世代起,电源架构的重要性在英伟达内部已提升至与半导体同等的战略地位。
据大摩预测,到2027年,为Rubin Ultra机柜(采用Kyber架构)设计的电源解决方案,其单机柜价值将是当前GB200服务器机柜的10倍以上。同时,到2027年,AI服务器机柜中每瓦功耗对应的电源方案价值,也将比现阶段翻倍。
随着数据中心CPU和GPU性能的不断提升,其功耗也随之激增,散热成本上涨的趋势非常明显。
英伟达的液冷技术路线呈现清晰的渐进式升级特征。早期GB200采用单板单向冷板+风冷组合方案,冷板覆盖CPU、GPU等高温区,风冷负责电源等低温部件。新一代GB300全面升级为全冷板液冷方案,可稳定应对1400瓦散热需求。面向未来Rubin芯片的超高功耗场景,英伟达已布局两相冷板液冷与静默式(浸没式)液冷耦合方案。
具体来看,英伟达GB300 NVL72机架级AI系统,单单是液冷散热组件的价值就高达49860美元(约合人民币近36万元),这已经比GB200 NVL72系统高了大约20%。
有数据表明,下一代Vera Rubin NVL144平台的散热总价将更高。随着计算托架和交换机托架的冷却需求进一步增加,预计每个机柜的冷却组件总价值将增长17%,达到约55710美元(约合人民币近40万元),其中为交换机托架设计的冷却模块预计价值将显著增长67%。
AI服务器等硬件升级推动高端PCB需求激增。每一次GPU迭代,都伴随着对PCB层数、材料等级和尺寸的更高要求。
当前,随着服务器功能的增强和算力的提升,在一些功能板卡上,例如BMC板卡、网卡以及PoE卡上的用量都有所增加。在迭代趋势方面,PCB的层数正向更高端发展,目前普遍已经达到44至46层。
高端PCB正展现出巨大需求潜力。Prismark数据显示,2025Q1全球PCB市场规模同比增长6.8%,其中高端HDI板和18层以上高多层板需求增速分别达14.2%和18.5%。目前,包括东山精密、沪电股份等在内的头部厂商正将新增产能倾斜至18层以上的高端品类。
更关键的是,PCB产品的迭代不仅仅是数量层级的提升,更是价格的翻倍式增长,这将直接体现在利润的大幅增加上。例如,从400G升级到800G或1.6T,PCB的价格不是增长20%或30%,而是成倍增长。
沪电股份表示,AI仍然是当前确定性最强的需求。从海外资本开支预期可看到云计算厂商正在争相在AI基础设施布局,2025年META、谷歌、微软、亚马逊资本开支分别同比增加60%、43%、45%、20%,AI服务器从以往的14~24层提升至20~30层,交换机提升至38~46层,部分产品还会引入HDI工艺,行业附加值有望显著增长。
云厂商们已经做好了准备。在AI服务器需求增长与成本升级的情况下,全球主要的八大CSPs资本支出持续扩大,为“变贵”的AI服务器提供了需求支撑。
TrendForce集邦咨询将2025年全球八大主要CSPs资本支出总额年增率从原本的61%,上修至65%。预期2026年CSPs仍将维持积极的投资节奏,合计资本支出将进一步推升至6000亿美元以上,年增来到40%,展现出AI基础建设的长期成长潜能。
这里统计的八大CSPs包含谷歌、AWS、Meta、微软、Oracle、腾讯、阿里、百度。面对AI数据和云端需求的激增,谷歌把2025年的资本支出上调到910-930亿美元;Meta亦上修2025年资本支出至700-720亿美元,并指出2026年还将显著成长;Amazon则调升2025年资本支出预估至1250亿美元。
2026年,AI服务器将变得不可估量的昂贵。从GPU功耗突破到液冷、供电、PCB的全链条升级,再到代工厂产能与成本的同步提升,每一环都在推高最终价格;而CSPs的持续投入,又让这场“贵价升级”有了坚实的需求基础。
本文由主机测评网于2026-03-03发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260328491.html