数据中心建设持续火热,算力资源长期短缺,存储能力也显不足,而电力供应这一同等关键却关注度不足的要素,同样陷入紧张态势。
高盛在近期一份报告中指出,美国在人工智能领域发展的最大制约因素不是芯片、稀土或人才,而是电力资源。
众所周知,英伟达GPU功耗极高。
微软数据中心技术治理与战略部门首席电气工程师曾披露数据:以英伟达单个GPU为例,H100 GPU峰值功耗达700瓦,每小时耗电0.7度,若按61%的使用时间计算,全年将消耗3740度电,相当于一个美国家庭的平均用电量(假设每户2.51人)。2024年英伟达H100 GPU销量约为150万至200万块,当这些GPU全部部署后,其总耗电量将超越美国亚利桑那州凤凰城所有家庭的用电总和。
数据中心的电力消耗远不止于此。
除GPU外,数据中心还包含大量其他设备,例如服务器(内含CPU等组件)、网络设施、存储系统、冷却装置和照明等,这些均需持续供电。其中冷却系统是能耗大头,占总耗电量的38%以上(部分甚至高达50%)。传统空气冷却效率较低,而直接芯片制冷、浸没式液冷等高效冷却技术虽节能但成本更高。
OpenAI总裁山姆·奥特曼曾预测,AI算力增长遵循类似摩尔定律的规律,即每10年提升100倍。未来20年将增长1万倍,其对能源的需求也会同步增加1万倍(为简化计算,假设芯片能耗不变)。据此,到2050年,全球人工智能耗电量至少需要130万亿度。相比之下,届时除AI外的人类总用电量预计在30万亿度以上。
基于这一矛盾,一批初创公司开始从芯片层面探索数据中心用电问题的解决方案。英特尔前CEO Pat Gelsinger与NXP前CEO Richard L. Clemmer已分别加入两家专注于数据中心电源芯片的初创企业。
英特尔前CEO加盟PowerLattice
近日,备受关注的芯片初创公司PowerLattice宣布,前英特尔首席执行官帕特·基辛格(Pat Gelsinger)将加入其董事会。此举引发行业广泛关注,标志着PowerLattice在攻克数据中心能耗难题上迈出关键一步。
同时,该公司宣布已完成新一轮2500万美元融资,PlaygroundGlobal和CelestaCapital等知名风投机构参与其中,显示出资本市场对其技术潜力的认可。
PowerLattice由来自高通、NUVIA和英特尔等公司的资深电子工程师于2023年创立,致力于研发一种名为“芯片组”(chiplet)的小型计算机芯片,旨在提升计算机供电效率。该芯片组被设计为紧贴处理器安装,从而减少系统内能量传输损耗。公司声称,此项技术可使计算机系统在保持同等算力下,功耗降低超过50%。
基辛格表示:“当前技术挑战在于实现高效的电力传输——能够突破此难题的团队寥寥无几。”
目前,PowerLattice的首批芯片已由台积电生产,并正与一家未公开的制造商合作进行功能测试。公司计划于2026年上半年向客户提供样品测试,潜在客户包括英伟达、博通、AMD等主流芯片制造商,以及多家专业AI芯片开发商。
NXP前CEO Richard L. Clemmer加入Empower
Empower的团队配置同样强劲。其CEO出身于英飞凌,首席技术官曾任职于ADI。D轮融资后,董事会迎来了NXP Semiconductor NV的前任首席执行官兼总裁Richard L. Clemmer。此外,Lumentum全球销售高级副总裁John Bagatelos以及Maverick Silicon的管理合伙人兼创始人Andrew C. Homan也宣布加入Empower。
Empower的核心技术是其专利的IVR(集成电压调节器)技术,该技术将多个组件集成至单一IC中,在提升效率的同时将面积缩小了10倍。Empower表示,其技术可应用于手机、5G、人工智能和数据中心等领域,能够以前所未有的简洁性、速度与精度提供强劲电源。
Empower创始人兼CEO Tim Phillips表示,将在未来几个季度利用这些技术在AI市场引发变革,实现千兆瓦级别的节能目标,同时提升全球数据中心AI平台的处理能力。
今年9月,Empower完成了由富达管理研究公司领投的1.4亿美元D轮融资。
电源管理虽看似枯燥,却直接影响着整个AI基础设施的效能与成本。“节约即是盈利”,这对于数据中心耗电问题而言,尤为贴切。
在人工智能技术飞速迭代的背景下,作为算力核心硬件的AI服务器,其电源系统正经历结构性革新。
业内人士向半导体产业纵横透露,传统电源峰值功率能力较弱,通常仅能短时承受100%-120%的额定功率,且对功率骤变响应较慢,可能导致电压不稳或系统重启。而AI电源需承受200%的峰值功率超载及180%的持续峰值功率,对瞬时功率突变响应极快,能确保电压稳定,避免系统崩溃。
普通电源(如PC、家电所用)主要追求稳定输出与成本控制,负载相对可预测,因此所需电源管理芯片功能较为基础,侧重AC/DC转换、电压调节(如LDO)、开关控制等,技术成熟且选择广泛,代表厂商有德州仪器(TI)、英飞凌(Infineon)、意法半导体(ST)和安森美(Onsemi)等。
AI电源则面临极端挑战:其核心计算单元(如GPU)功耗常达数百瓦且瞬时电流波动巨大。这就要求AI电源必须具备极高功率密度和超快动态响应能力,以防电压瞬间跌落导致芯片计算错误。因此,其所需的PMIC(电源管理集成电路)是高性能、数字化的多相控制器和智能功率级(DrMOS),它们能以纳秒级速度协同工作,为每一相GPU核心精准分配电力。在此领域,英飞凌、MPS(芯源系统)和TI处于领先地位,为高端AI加速卡和服务器主板提供核心解决方案。
AI负载激增下,传统服务器电源系统不堪重负,高功率、高效率、高智能化成为电源芯片技术的攻坚重点。
国内AI电源芯片企业包括晶丰明源、杰华特、芯联集成、圣邦股份、芯朋微等。
11月,晶丰明源正式推出第二代Smart DrMOS及配套Vcore电源解决方案。该产品通过工艺与封装升级,在质量、效率和功率密度方面实现显著提升。上半年,其高性能计算电源芯片业务收入同比猛增419.81%,出货量增长121.49%。
杰华特覆盖AC-DC、DC-DC、BMS等40余条子产品线,布局完整。芯联集成的55nm BCD集成DrMOS芯片已通过客户验证,第二代高效率数据中心电源管理平台获关键客户导入。圣邦股份在信号链与电源管理模拟芯片核心技术上持续突破,部分产品指标达国际领先水平。芯朋微则聚焦工业市场爆发,其48V输入数模混合高集成电源芯片、大功率工控芯片等产品在服务器与通信设备领域快速渗透。
中金公司数据显示,AI服务器电源市场预计在2025年至2027年间快速增长。其中,模组和芯片市场的复合年增长率(CAGR)预计分别达110%和67%。这表明,随着AI技术飞速发展和AI服务器需求持续增长,对高性能、高效率电源的需求将呈爆发态势。
核心受益环节包括:PSU(电源供应单元)、PDU(配电单元)、BBU(备用电池单元)以及DC-DC(PDB+VRM)等器件。
“Token数量增加10倍,所需计算量轻松达到原先的100倍。”英伟达CEO黄仁勋在2025年GTC大会上的断言,揭示了AI算力需求爆发式增长对基础设施的严苛考验。
GaN/SiC,渗透加速。随着AI服务器对电源功率密度要求不断提升,传统硅基方案已难以完全满足需求。第三代半导体材料GaN与SiC凭借高压、高频、低损耗特性,成为替代传统硅器件的关键选择。
SiC MOSFET因具备1200V乃至更高耐压且高频特性优异,已成为服务器电源前端AC-DC变换的首选器件。在PSU的前端AC-DC变换中,无桥图腾柱PFC和有源三电平整流等典型拓扑均需高耐压、低损耗的开关器件。
GaN则凭借更高电子迁移率和低开关损耗,在高频应用场景中表现突出。德州仪器通过将GaN功率晶体管与驱动器整合于单一封装内,有效缩短回路、降低噪声,使系统能更稳定地运行在MHz以上高频。
预计2030年,数据中心PSU市场规模将增至141亿美元,年复合增长率约15.5%。考虑到AI服务器功率远高于标准服务器,高于3kW的高功率PSU市场占有率将提升至80%,到2030年达115亿美元。台达、光宝、华为合计占据50%的PSU市场。宽禁带模块渗透率方面,基于SiC、GaN的高功率PSU将从2025年的10%提升至约24%,市场规模约33.84亿美元。台达、光宝、华为以及康舒、村田、TDK、联想等均已推出配备SiC、GaN的PSU产品。
如果说第三代半导体是AI电源变革的“燃料”,那么800V高压直流(HVDC)架构则是决定其发展方向的“罗盘”。
2025年,英伟达在白皮书中首次将中压整流器和固态变压器(SST)列为未来供电方案参考,推动行业从传统电力架构向更高效、更适配AI算力需求的高压直流配电架构演进。
800V HVDC架构优势显著:通过“DC-to-Chip”直流直供模式,将电力转换环节从4-5次减少至1-2次,系统端到端效率最高可提升至98.5%,铜材用量能减少45%以上。
英伟达提出的800VDC方案包括三种路径:白色空间改造方案(过渡方案)、混合电力方案(可行方案)以及中压整流器或固态变压器方案(未来方案)。
从市场商业化进展看,国内外头部企业均在推动HVDC技术落地与生态构建。国内方面,阿里自2018年起开始招标,腾讯于2025年招标;国外Meta的普罗米修斯计划可能在2026年实施,谷歌正推动±400V标准化进程。
本文由主机测评网于2026-01-31发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260122107.html