英伟达斥资200亿美元,悄然拿下了一家与自己技术路线截然相反的芯片公司?
事情的起因是,上周Disruptive CEO透露,黄仁勋正准备将潜在竞争对手、同为芯片制造商的Groq收入囊中。这一消息迅速在科技界引发热议,被视为英伟达史上最大规模的收购案。
有人评论英伟达将进一步巩固垄断地位,也有人分析Groq的技术优势,但最广泛的猜测是,黄仁捷被谷歌TPU的最新进展所刺激。
虽然Groq这个名字对许多人来说可能陌生,甚至容易与马斯克的Grok混淆,但这家成立于2016年的公司背景深厚。其创始人Jonathan Ross正是谷歌第一代TPU的设计师,目前Groq估值已超70亿美元。
Groq的核心产品是一款名为LPU(语言处理单元)的新型专用芯片,它与谷歌的TPU有些相似,都是为AI计算量身定制,但LPU更极端——完全专注于语言模型,放弃了通用性。
最令人惊讶的是,LPU没有采用HBM,也就是我们通常所说的显存。
传统上,无论是训练还是推理,显存都是标配。例如,运行某个模型需要至少24GB显存的3090显卡,否则无法加载。因为大模型每步计算都需要从存储中读取参数,计算后再写回,而显存作为离计算核心最近的临时仓库,能高效完成参数搬运。
若没有显存,参数只能存放在硬盘中,那么推理速度将慢如蜗牛。即便是TPU,后来为了兼顾训练,也乖乖加入了显存模块。
但Jonathan Ross坚持初心,LPU沿袭了第一代TPU的理念,只做推理,完全舍弃显存。
没有显存,模型参数放哪儿?LPU选择了比显存更靠近计算核心的SRAM。但SRAM容量极小,每张卡仅几十到几百MB,根本无法容纳完整模型。Groq的解决方案是:用成千上万张卡组成集群,每张卡只存储和计算模型的一小部分,最后汇总输出。
通过这种方式,LPU的数据存取速度达到GPU的20倍以上,推理性能惊人。凭借这一独特技术,Groq迅速获得关注,在其官网的统计图中,模型推理业务已超越亚马逊,直逼微软。
早在一年前,就有不少人认为Groq LPU将对英伟达GPU构成威胁,甚至将两者反复对比。毕竟在英伟达一家独大的背景下,Groq能实现10倍推理速度,简直像天降神兵。
当然,质疑声也不少。前阿里副总裁贾扬清曾粗略估算,LPU三年运营成本是H100的10倍,采购成本更是高达38倍,认为它要替代GPU还为时尚早。
现在,争论可以停止了:英伟达选择了“全都要”。但这次“收购”并非传统意义上的吞并,而是采用了硅谷流行的“剥壳式收购”——将Groq的核心技术和人才挖走,留下空壳。微软收购Inflection AI、亚马逊挖角Adept都是类似操作,这种方式因对初创公司伤害极大而备受诟病。
因此,英伟达官方并未承认收购,而是宣布与Groq签署非独家许可协议,获得其推理技术授权。表面上是技术共享,实际上Groq的核心技术、CEO Jonathan Ross、总裁Sunny Madra以及多位核心工程师都已加入英伟达。
英伟达宁可背负骂名、冒着反垄断风险也要拿下Groq,背后反映了AI行业的重要趋势:模型训练的热潮仍在持续,但推理部署的长期需求正逐渐超过训练。彭博社四月报道指出,目前训练成本占数据中心支出的60%,但到2032年,这一比例可能降至20%。未来,像Groq这样高效低耗的推理芯片将成为争夺焦点。
通过这次曲线收购,英伟达补齐了在非HBM架构上的短板,这既是对谷歌TPU路线的迟来致敬,也表明:无论是训练还是推理,所有的算力红利,英伟达都不愿错过。
本文由主机测评网于2026-03-12发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260330871.html