
临近岁末年初,中国算力产业在资本市场的活动明显加快。
1月8日,上海天数智芯半导体股份有限公司(简称“天数智芯”,09903.HK)正式在港交所上市,本次公开发售获得超过400倍超额认购,反映出资本市场对其的强烈追捧。
在此之前,另外两家国内GPU领军企业也相继在科创板上市:2025年12月5日,摩尔线程(688795.SH)首日盘中涨幅高达468.78%,市值一举突破3055亿元;同年12月17日,沐曦股份(688802.SH)上市首日涨幅达692.95%,市值攀升至3300亿元以上。
与GPU企业在二级市场的火热相呼应,国产存储芯片厂商也在2025年底实现了重要突破。2025年12月30日,长鑫科技集团股份有限公司(简称“长鑫科技”)向上交所递交科创板招股书,同时披露了2025年前三季度320.84亿元的营收,这一数据直观体现了国产DRAM(动态随机存取存储器)产能的快速释放。
更早的2025年9月25日,长江存储科技控股有限责任公司(简称“长存集团”)完成股份制改革,其1600亿元的估值一度创下半导体独角兽的新纪录,也标志着这家NAND Flash(闪存)龙头企业迈入新的发展阶段。
从芯片设计到存储颗粒,从科创板到港交所,一轮接一轮的资本热潮侧面印证了国产算力产业的迅猛发展。当然,除了资本市场的热度,国产芯片在实际的智算中心建设和应用适配中,依然面临诸多复杂挑战。
进入2026年,国产算力竞争已不再单纯比拼硬件参数,焦点正转向“万卡集群”的稳定性、软件生态的易用性以及商业落地的性价比,这些成为衡量价值的新标准。
在中国算力产业的发展历程中,“万卡集群”常被视作重要里程碑,然而当系统规模真正达到这一量级时,其故障概率也呈指数级上升。
近期,中科曙光(603019.SH)推出了scaleX万卡超集群,该集群由16个scaleX640超节点通过高速网络互联,实际部署10240块AI加速卡。中科曙光高级副总裁李斌向经济观察报记者表示,在算力系统规模较小时,单点问题或许影响有限,但若将数万甚至十万个芯片组成紧耦合系统,任何细微瑕疵都将被放大。
“假设单点可靠性达到99.99%,放大一百倍、一千倍后,系统可靠性将呈数量级下滑。”李斌解释道。
对此,中国工程院院士、清华大学计算机系教授郑纬民在近期摩尔线程MUSA开发者大会上亦指出,国产万卡乃至十万卡系统要实现可用、好用非常困难,十万张卡互联,平均每小时可能出错一次,一旦某张卡故障,整个系统即需暂停。
为解决这一难题,硬件厂商在“连接”方面投入大量精力。
李斌介绍,中科曙光发布的集群,核心突破是采用了国产首款400G原生RDMA(远程直接内存访问,一种允许服务器间直接交换内存数据、无需CPU干预的高速网络技术)网络。在传统超级计算机领域,以色列迈络思(Mellanox)公司几乎垄断互连网络标准,这也正是英伟达收购迈络思的原因——英伟达不仅销售GPU,还提供NVLink和InfiniBand网络,构成其“三驾马车”。
网络为何如此关键?李斌解释,超级计算机进行“变形计算”(如模拟物理结构变化等大规模科学仿真计算)时,需要海量计算单元协同工作,因此数据传输网络必须具备极高的信号质量、极低延迟和大带宽。
这也是英伟达构建“三驾马车”产品体系的根本逻辑。除核心算力GPU外,英伟达通过NVLink技术实现单服务器内芯片间的超高速互联,通过收购迈络思获得的InfiniBand(无限带宽)技术解决服务器节点间的高速数据传输。
当前AI集群本质上可视为超级计算机集群的延伸,大模型分布式训练对网络的要求与超算相同,因此节点间高速互连网络成为决定集群效率的关键瓶颈。
“过去,国内存在较大代差,这一技术领域落后较多。”李斌表示,不过新一代国产网络产品在规格指标和实测稳定性上,已能与英伟达当前量产产品对标。
更长期的挑战在于物理极限。李斌分析称,目前业界普遍采用铜缆连接,因其可靠性高、成本低、功耗低,但随着数据中心单链路速率提升,铜缆有效传输距离正急剧缩短。
“当速率达到448G时,铜线能驱动的距离可能仅有几厘米。”李斌判断,未来系统必然需要芯片直接出光,即硅光技术。
数据传输中,铜缆承载电信号,随着传输速率升高,电信号在铜线中的损耗急剧增加,导致传输距离缩短。为解决此问题,行业需用光信号替代电信号,即“光进铜退”,而硅光技术正是将电光转换功能直接集成于芯片,从而突破铜缆的物理极限。
解决“连得上”后,还需解决“存得下”的问题。李斌表示,算力大幅提升的同时,若数据传输和存储性能无法匹配,中间的鸿沟将日益扩大。
这正是长鑫科技和长存集团的价值所在,两家公司分别布局存储芯片的两大核心领域——DRAM(动态随机存取存储器,即内存)和NAND Flash(闪存,即硬盘存储)。
长鑫科技在2025年12月30日递交的科创板招股书中披露,2025年前三季度营收达320.84亿元,2022年至2024年主营业务收入复合增长率超70%。作为中国最大的DRAM设计制造一体化企业,其产品线已覆盖DDR4至DDR5、LPDDR5X,推出的首款国产DDR5产品速率高达8000Mbps。
在AI智算集群中,DDR5作为系统级内存承担数据预处理重任,而基于DRAM衍生的HBM(高带宽内存)则是决定GPU性能上限的核心要素。
长存集团则在更底层的NAND Flash领域稳固地位。2025年9月,长存集团完成股份制改革,其全资子公司长江存储凭借Xtacking架构(将存储阵列与逻辑电路分开制造再键合的技术),在3D NAND领域实现技术突破。
有了计算和存储,还需要机制将其组织。对高度成熟的半导体行业,分工与生态至关重要,没有一家公司能独立做好全产业链所有环节。
“以往大家的心态是——单做一点可能难以打开市场,于是纷纷尝试全面布局。但最终结果往往是大家都没做好。”李斌说。
改变正在发生。光合组织(海光产业生态合作组织)秘书长任京暘向经济观察报记者表示,以中科曙光发布的scaleX万卡超集群为例,这类大规模算力系统已不再是单一品牌的独角戏。
实现这一变化的底层逻辑在于协议打通,作为国产通用算力核心供应商,海光信息开放其HSL(高速互连总线协议)技术,实现海光CPU与各家GPU的异构互联,即在同一机柜内,可同时搭载海光CPU及摩尔线程、沐曦等其他品牌的AI加速卡。
“海光开放HSL后,其他国产AI芯片厂商均可深度融入AI计算开放架构,CPU与GPU实现拉通。”任京暘说。
这种技术解耦,折射出商业逻辑的妥协与成熟,在巨大外部压力下,没有公司能独揽全产业链,分层解耦、各司其职成为唯一生存之道。
相比万卡集群的硬件建设,软件生态的迁移是更为复杂的系统工程。
在英伟达CUDA(英伟达专有的GPU算力调用平台)生态长期主导下,开发者切换至国产计算平台面临巨大的代码重构与学习成本,如何降低门槛成为国产芯片厂商必须解决的问题。
作为国产全功能GPU代表,摩尔线程选择从个人开发者切入。在近期首届MUSA开发者大会上,摩尔线程发布“MTT AIBOOK”AI算力本,预置VS Code、PyTorch等全栈开发工具,实现开发者“开箱即用”。
摩尔线程试图通过这款终端产品培养开发者使用习惯,并推出代码生成大模型MUSACode,声称可实现CUDA代码到MUSA代码的自动化迁移,可编译率达93%。
“我们希望你说一句话,它就能帮你开发MUSA代码。”摩尔线程董事长张建中在MUSA开发者大会上还介绍了自研项目“Text to MUSA”,旨在通过降低门槛,在开发者起步阶段培养习惯,逐步构建独立于CUDA的生态。
如果说摩尔线程试图从源头降低开发者门槛,那么在更复杂的企业级市场,云服务商则承担起“屏蔽差异”的职责。与个人用户通常只使用一种显卡不同,大型企业,尤其是国资智算中心,为保障供应链安全或平衡供应商关系,常同时采购多种品牌的国产加速卡。
这种“多品牌混用”的硬件现状,带来棘手生态难题——国产芯片厂商各自为战,软件栈互不兼容,接口标准各异,导致企业算力资源被底层硬件切割成一个个无法互通的孤岛。
例如,海光信息(688041.SH)副总裁吴宗友在接受经济观察报记者采访时坦言:“过去几年信创发展迅速,芯片行业发展很快,但也给用户带来诸多困扰。”用户最大困扰在于国产芯片品牌繁多,每款均需单独适配优化,投入成本极高。他认为,若厂商继续各自为战,架构以外的企业将面临淘汰风险,构建开放生态架构已成行业生存必选项。
优刻得科技股份有限公司(简称“优刻得”,688158.SH)是国内首家在科创板上市的中立云计算服务商。优刻得服务器中心及AI算力负责人丁振雷接受采访时,将优刻得角色定义为“承上启下”。
作为云服务商,优刻得向下适配了3到5家主流的国产芯片。“行业生态存在割裂与不兼容问题。”丁振雷直言,云平台作用在于屏蔽底层割裂,通过虚拟化和统一调度,使上层应用感知不到底层具体使用哪家芯片。
对大型国资企业和制造企业而言,这是刚需,因其往往拥有多类型国产算力硬件。如何将异构算力统一管理,转化为有效生产力?丁振雷表示,这正是云平台的机会。
此外,在终端侧,紫光计算机看到“本地化”的独特价值,紫光计算机产品中心总经理潘睿向记者指出一个被忽视的细节:云端AI虽强大,但存在网络延时和隐私风险。
“如果你向网络大模型提问,它会停顿几秒才回复,其中约2秒是网络延时。”潘睿说,对于某些场景,如工业流水线质检机器人或金融柜台业务,这2秒延迟不可接受。此外,隐私问题也让许多企业对云端大模型望而却步。
针对这些痛点,紫光推出带有前置可插拔硬盘仓的AI工作站。潘睿解释,实际AI作业中,面对海量数据,受限于网络带宽,直接插拔硬盘进行数据交换的效率往往优于网络传输。
这种基于一线应用场景的务实设计,反映出国产厂商正从单纯模仿转向基于用户真实需求的微创新。
但在应用落地逐渐顺畅的同时,上游供应链波动成为2026年国产算力产业面临的新变量。丁振雷告诉记者,2025年下半年以来,全球存储颗粒(DRAM/NAND)供应压力巨大,尽管长鑫和长存已量产,但国产化尚无法完全解决全球性供需失衡。
“2026年这是一个颇具挑战的问题。”丁振雷称,为应对缺货,云厂商已改变采购策略,从过去按季度规划资源,拉长到按半年规划,“大家纷纷前置,比如明年H100招标计划,现在都在第四季度完成了”。
检验国产算力成色的最终标准,依然是客户的选择。
中国科学院高能物理研究所(简称“高能所”)计算中心主任陈刚向经济观察报记者透露,高能所国家高能物理数据中心已开始采用国产算力设施(海光CPU结合海光DCU)进行AI训练和科学计算。
高能物理实验涉及海量数据处理与分析,对算力基础设施的精度与稳定性要求极高。对于国产芯片在科研场景中的实际表现,陈刚评价:“性能比国外可能稍逊一筹,但差距不大,完全够用。”
除硬件采购外,更深层变化在于合作模式。陈刚表示,目前科学家已深入参与芯片调优,通过双方工程师联合办公,科学家协助厂商验证软件,厂商配合科学家优化算法,这种联合调试加速了软硬件适配。
对于国产算力未来,陈刚持乐观态度:“我不认为他们能一直卡住我们,我认为五年,不会超过十年(就能超越)。”
在更广泛的商业市场,互联网大厂的选择往往具风向标意义。
吴宗友观察到,国内互联网大厂态度正发生微妙变化,过去大厂习惯于直接采购国际主流算力芯片,因简单省事。但现在,随购买力与话语权提升,大厂不希望被单一供应商控制,希望拥有更多话语权。
“他们自然就会接受更开放的架构。”吴宗友说。为迎合这一需求,海光推出定制化产品,允许大厂将特殊需求写入芯片。吴宗友认为,这种定制化策略可规避单纯价格战,与客户建立更深层绑定。
至于市场对“算力泡沫”的担忧,丁振雷认为,2026年是Agent(智能体)元年,Agent与传统AI应用不同,它并非降本逻辑,而是增效逻辑。
“如果大家用过Agent就知道,它对Token消耗巨大。”丁振雷分析,一个真正好用的Agent场景,对算力消耗呈指数级增长。因此,从大的供需关系看,算力依然短缺。目前行业面临的问题不是总量过剩,而是供需错配,即好用的算力不足,不好用的算力闲置。这也正是国产算力相关芯片的机会所在。
此外,DeepSeek等国产大模型的爆发,正反向定义硬件竞争标准。例如,DeepSeek采用FP8量化策略,这是一种通过降低数据计算精度(从16位或32位降至8位)换取更高计算速度和更低显存占用的技术。换言之,若芯片厂商不支持这种计算格式,其硬件性能将大打折扣。
因此,摩尔线程等厂商迅速跟进,通过优化底层计算库支持混合精度计算,在同等硬件条件下提升模型运行效率。
此外,近期市场传闻美国可能放宽英伟达H200芯片出口限制。这被业内视为“温水煮青蛙”策略,H200性能强于当前国产主流芯片,若其大量进入中国市场,是否会打断国产算力产业刚建立的生态循环?
面对这一潜在变量,多位受访者接受采访时强调,国内政企客户对供应链安全有刚性考量,同时国产算力产业链已形成闭环。目前,从长鑫科技、长存集团提供的存储底座,到中科曙光、海光信息构建的计算与网络集群,再到摩尔线程、天数智芯适配的终端应用,国产芯片产业已不再是单点存在,而是逐渐形成一个完整、庞大的产业链条。
换言之,过去几年中国算力产业已初步形成生态闭环,这种紧密咬合的生态,使国产算力产业具备了进一步直面挑战的能力。
本文由主机测评网于2026-03-17发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260331848.html