近日,美国政府发布新规,允许英伟达向中国等地区的“获准客户”出售H200 AI芯片,但要求分享25%的销售额。这使得GPU计算再次成为热点。
不久前,黄仁勋在一次公开活动中发表言论,质疑CPU在未来加速计算与AI时代的必要性,暗示GPU或将取代CPU,这也是他一直倡导的“加速计算”理念的体现。
近年来,随着AI大模型的发展,无论是训练、推理还是自动驾驶、云计算,其计算架构均以GPU为核心,CPU的角色逐渐被弱化。
英伟达成为此波浪潮的最大赢家,其数据中心GPU收入从2023年的150亿美元激增至2025财年的1152亿美元,预计2026财年财报将继续增长。
图源:英伟达
国内GPU厂商摩尔线程上市首日股价从114.28元飙升至约650元,点燃了国内市场对GPU的热情。摩尔线程在12月9日宣布将发布新一代GPU架构及全栈战略。
问题:在大模型训练需求激增的当下,GPU重要性凸显,但CPU真会被取代吗?以下是雷科技的思考。
传统上,CPU是通用计算的核心,因其强大的单线程性能和完善的生态,负责操作系统和复杂任务。CPU是智能设备的大脑,无论PC、手机还是服务器都需要CPU调度。
GPU的优势在于并行计算,数千核心同时工作,在深度学习、图像渲染等任务上效率远超CPU。
然而,GPU在处理复杂逻辑任务时力不从心,因为其单核能力有限。比喻:GPU像车间工人批量重复工作,CPU像管理人员统筹安排。
因此,在PC和服务器中,CPU仍不可或缺,负责数据库和系统调度,而GPU主导模型训练和并行计算。
图源:英特尔
小雷认为,两者并非零和,而是协同关系。随着大模型成为数据中心主力,GPU权重提升,黄仁勋的“取代”更多是指GPU成为核心驱动力。
GPU完全取代CPU理论上可能,但需要设计通用任务处理核心,加大缓存和控制单元,并全面更新指令集和系统架构,相当于推翻重构,阻力巨大。
尽管困难,GPU在云计算中已占主导,为满足AIGC和大模型训练需求,云端基础设施转向GPU集群。
国内外科技企业加速部署GPU集群,如阿里云自研含光芯片并引入英伟达GPU。
百度昆仑自研芯片深度优化AI算力,与飞桨结合,助力企业本地部署大模型,百度拟拆分昆仑上市。
图源:昆仑
亚马逊用Graviton、Trainium等芯片构建自研AI算力集群,适配不同需求。
谷歌自研TPU以能效著称,并推出Axion CPU,其云计算中心推理集群逐渐转向自研芯片。
头部厂商采购第三方GPU同时自研芯片,旨在避免算力供应受制于人,注重能效和成本控制。
因此,即使计算重心转向GPU,英伟达也难以独占市场。
终端侧也在变化,从PC到手机到汽车,AI任务本地执行增多,削弱CPU重要性。
大模型推理、智能助手等需要高并行算力,旗舰SoC强化AI算力,集成GPU/NPU。
系统级AI功能从CPU迁移到GPU/NPU,AI手机成为卖点。
AI PC关键指标变为端侧AI算力,GPU承担重任,各厂商加大核显投入。
图源:高通
NPU能效高但无法取代GPU在图形渲染和并行计算的作用,GPU重要性提升。
自动驾驶依赖GPU高并行优势,如地平线、特斯拉、英伟达平台。
以前不需GPU的设备现在都配备GPU,GPU时代到来。
英特尔和AMD不会坐以待毙,AI生态参与者不愿看到英伟达独大。
英伟达优势在于CUDA生态,难以撼动。
AMD推ROCm,开放且更新快,获认可。
英特尔两步走:Gaudi加速器和CPU强化AI。
半导体行业变化,GPU新格局形成,CPU厂商通过异构算力等稳固角色。
真正竞争在于算力结构、软件生态话语权。华为有完整链条。
AI原生时代,构建完整AI生态者占据主动。
本文由主机测评网于2026-03-02发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260328103.html