当前位置:首页 > 科技资讯 > 正文

英伟达发布Rubin CPX GPU,专为长上下文AI推理设计

英伟达通过推出Rubin CPX,将AI推理计算过程拆分为上下文与生成两个独立阶段,分别由专用GPU进行运算,实现了效率的飞跃,最高可达现有旗舰系统的6.5倍。

作为全球人工智能算力芯片的领导者,英伟达在周二正式发布了专为长上下文工作负载设计的GPU——Rubin CPX,旨在显著提升当前AI推理运算的效率,特别是在编程、视频生成等需要超长上下文窗口的应用场景中。

英伟达CEO黄仁勋强调,CPX是首款专为需要一次性处理海量知识(达到数百万tokens级别)并进行人工智能推理的模型而构建的芯片。

需要说明的是,Rubin是英伟达计划在明年推出的下一代顶级算力芯片,因此基于Rubin的CPX预计要到2026年底才能开始出货。下一代英伟达旗舰AI服务器的全称为NVIDIA Vera Rubin NVL144 CPX,它集成了36个Vera CPU、144块Rubin GPU和144块Rubin CPX GPU。

英伟达发布Rubin CPX GPU,专为长上下文AI推理设计 英伟达 Rubin AI推理 长上下文处理 第1张

(NVIDIA Vera Rubin NVL144 CPX机架与托盘,来源:公司博客)

英伟达透露,搭载Rubin CPX的Rubin机架在处理大上下文窗口时的性能,相比当前旗舰机架GB300 NVL72,最高可提升6.5倍。

英伟达发布Rubin CPX GPU,专为长上下文AI推理设计 英伟达 Rubin AI推理 长上下文处理 第2张

据悉,下一代旗舰机架将提供8exaFLOPs的NVFP4算力,这比GB300 NVL72高出7.5倍。同时,单个机架就能提供100TB的高速内存和1.7PB/s的内存带宽。

言归正传,英伟达在Rubin GPU旁边额外配备一块Rubin CPX GPU,核心目的是大幅提升数据中心的算力效率——这意味着客户购买英伟达芯片将能获得更高的投资回报。英伟达表示,部署价值1亿美元的新芯片,预计能为客户带来50亿美元的收入。

为何需要两个GPU?

作为行业内的创新之举,英伟达的新产品在硬件层面上将人工智能推理的计算负载进行了智能拆分。

英伟达介绍称,推理过程包括两个截然不同的阶段:上下文阶段与生成阶段,两者对基础设施的要求本质上完全不同。

英伟达发布Rubin CPX GPU,专为长上下文AI推理设计 英伟达 Rubin AI推理 长上下文处理 第3张

上下文阶段属于计算受限(compute-bound),需要高吞吐量的处理能力来摄取并分析大量输入数据,从而生成首个输出token。相反,生成阶段则属于内存带宽受限(memory bandwidth-bound),依赖高速的内存传输和高带宽互联(如 NVLink),以维持逐个token的输出性能。

当前顶级的GPU都是为了内存和网络限制的生成阶段设计,配备昂贵的HBM内存,然而在解码阶段并不需要这些内存。因此,通过分离式处理这两个阶段,并针对性地优化计算与内存资源,将显著提升算力的利用率。

据悉,Rubin CPX专门针对“数百万tokens”级别的长上下文性能进行优化,具备30petaFLOPs的NVFP4算力、128GB GDDR7内存

英伟达估计,大约有20%的AI应用会“坐等”首个token出现。例如解码10万行代码可能需要5-10分钟。而多帧、多秒的视频,预处理和逐帧嵌入会迅速增加延迟,这也是为什么当前的视频大模型通常仅用于制作短片。

英伟达计划以两种形式提供Rubin CPX,一种是与Vera Rubin装在同一个托盘上。对于已经下单NVL144的用户,英伟达也会单独出售一整个机架的CPX芯片,数量正好匹配Rubin机架。

英伟达发布Rubin CPX GPU,专为长上下文AI推理设计 英伟达 Rubin AI推理 长上下文处理 第4张