自2022年底ChatGPT发布以来,过去三年间,人工智能的狂热浪潮席卷了算力、存储、网络、制造、电力基础设施、软件应用乃至边缘设备等各个细分赛道,每个方向都经历了反复轮番的炒作。
然而,到了三周年之际,当AI基础设施的核心支撑企业,在第三季度财报前后纷纷宣布前所未有的AI大规模建设计划时,市场却突然像失去灵魂一样,开始担忧AI投资可能陷入泡沫。
产业中有人赚得盆满钵满,有人亏损到不得不疯狂融资,问题究竟出在哪里?融资手段眼花缭乱、千奇百怪,这又是为什么?
本文通过产业链核心公司的财务数据,深入探讨这些问题,并尝试理解:AI投资是否真的已经步入泡沫阶段?如果存在泡沫,那么泡沫的根源又在哪里?
下面这张图,对许多人来说可能已经非常熟悉。这张图最大的问题是,整个产业链的最终用户,即OpenAI的用户,在整个资金循环链条中所创造的收入规模相比投入太小,未能被纳入图中。
但图的核心信息,实际上就是下游客户利用上游供应链的资金来为自己的业务融资,这是一种简单而古老的供应链融资方式。
与此同时,一级市场的模型巨头们进行供应链融资的同时,二级市场的应用巨头们也已逐步普遍通过表内和表外债券融资(详细分析见此处)。
但这里的问题是,为何在芯片商如英伟达赚得盆满钵满、全市场都在宣称AI是一场新技术革命的时候,AI的开拓者OpenAI却需要布局如此庞大的融资棋局?为什么原本资金充裕的美股巨头如谷歌、Meta等,现在必须依赖债务来支撑未来发展?
答案其实很简单:在AI产业初期,产业链利润分配严重不均,上游几乎将利益“吃干抹净”。
AI的主产业链主要包括五类参与者:晶圆代工(台积电)——算力提供商(英伟达)——云服务商(微软)——模型商(OpenAI)——终端场景。
1.1)从云服务商的经济账谈起:究竟谁赚取了红利?谁只赢得了吆喝?谁承担了风险?
A. 云服务商的经济账:100元收入分布——55元成本、10元运营开支,35元利润;
接下来,通过一本简单的产业链经济账来直观感受过去三年的AI繁荣。我们知道,云服务是一个既重资金壁垒又重技术壁垒的行业。它的前半部分类似于盖房子,需要建设厂房、机柜、布线和冷却系统等,这部分是数据中心的硬件基础设施。
软装部分则是安装GPU、CPU,其中GPU内部连接、GPU之间以及与其他设备的连接需要妥善处理,再加上网络和宽带,通电后软装基本完成。这些要素组合在一起,通过技术人员进行“灵魂点睛”,就构成了基础的IaaS服务。
从以上要素可以看出,尽管听起来高大上,云服务本质上仍未脱离运营商生意的范畴——将各种重资产与技术结合,形成云服务,并通过租赁云服务盈利。
这个生意的核心在于成本必须足够低,例如最昂贵的GPU安装后可以使用十年八年,不能像光伏电场那样频繁更换光伏板。
来源:英伟达NDR材料
根据估算,如果云服务商使用全新的AI产能提供AI云服务,每赚取100元收入,大约35元是前期购买设备(主要是GPU)的摊销折旧。以目前云服务商普遍采用的五年折旧期计算,资本开支投入实际为175元。
如果使用英伟达的GPU,那么大约125元(70%以上)是GPU(含网络设备)带来的收入,其余来自CPU、存储和网络设备等。
除了固定成本,还有能源电力、带宽和运维等成本。运营费用主要包括研发、销售和行政开支。100元收入最终实现的账面经营利润为35元。
从这些数据中,可以明显看出一个问题:
① AI基建早期,云服务商仅有账面利润,实际严重缺乏现金流:在这个简单模型中,云服务商表面上赚了35元,但在获得收入之前,实际上已经预付了超过100元的开支,需要投入175元购买GPU设备。这意味着云服务商只赚取了账面利润,实际现金流为负。
② 数据中心疯狂融资:大型云厂商原本依靠现金牛业务支撑,但现在新兴云服务商如CoreWeave、Nebius、Crusoe、Together、Lambda、Firmus和Nscale等,由于缺乏原有现金流业务,普遍需要通过发行资产抵押支持证券来融资以提供云服务。
B. 100元的云服务收入,如何流入英伟达和OpenAI的账本?
① 算力提供商(英伟达)——盆满钵满的设备股
云服务的成本,就是英伟达的收入。每100元的云服务收入中,35元是设备折旧,按五年折旧期计算,提供这些服务需要提前采购约175元的设备。
英伟达的GPU在采购中价值占比约70%,相当于云服务商每100元收入,仅向英伟达就支付了125元的GPU设备采购费。
显然,作为云服务商生产资料采购中单体价值最大的一环,英伟达在AI基建早期赚得盆满钵满。
② 当前的OpenAI——8亿月活跃用户,但亏损严重的应用股
整个产业链中,云服务的需求端——OpenAI是需求的源头,其偿付能力决定了链条循环的健康度。但从OpenAI目前的创收能力看,投入大量算力资源后,结果只能算是“用金铲子挖土”。
云服务商100元的GPU租赁收入,对OpenAI而言,就是其为用户提供服务的云服务成本。根据媒体披露的OpenAI 2025年上半年财务状况,100元的云开支仅对应公司96元的收入,同时计入公司的研发人员开支、营销和管理支出(不含期权激励)——每100元支出,公司基本亏损100元。
C. 核心矛盾:产业链利润分配严重扭曲
将这三家公司简化的经济账放在一起,一幅对比鲜明的产业链利润分配图景浮现:产业链核心参与者的利润和风险收益分配极度不均衡。
上游铲子股——以英伟达为代表的算力资产是轻资产业务,凭借垄断地位,不仅收入增长迅速,而且应收账款风险较低,盈利质量高,赚得盆满钵满;
中游资源整合方——云服务商承担着大规模的产业链投入和资源整合,前期投入巨大,表面盈利但实际现金流紧张,是事实上的最大风险承担者;
下游应用商——生产资料(云服务)成本过高,收入过少,仅能覆盖部分云服务成本,是明显亏损的应用股,最终应用股的健康状况才是决定产业链健康度的关键。
这种产业链利益不断向上游转移的趋势,使得AI主产业链的矛盾日益突出,行业竞争动态发生显著变化:
① 算力——英伟达
英伟达凭借在训练阶段第三方GPU的垄断地位,尤其是独特优势,享受了AI基建早期的最大红利。但其产品售给客户后并非易耗品,而是能使用多年的资本品。
从行业贝塔角度,其高增长主要集中在AI数据中心的产能建设期。公司增长斜率高度依赖云服务商资本开支的增长斜率,一旦云服务商的资本开支即使在高位稳定下来、不再高速增长,对应的芯片商收入将停滞,若误判周期,加上存货减值,利润率将直线下滑。
最新季度,英伟达前四大客户贡献了公司61%的收入,显然其收入就是云服务商的资本开支预算。
来源:英伟达2025年NDR材料
当前在4-5万亿美元市值压力下,英伟达肩负着持续交付芯片、支撑美股半边天的重任,因此其核心诉求是继续销售芯片,卖出更多芯片,方法包括:
a. 芯片销售扩散到海外市场,例如特朗普带领GPU商家前往中东等地签单;同时,失去中国市场让黄仁勋发出了美国可能输掉AI战争的感叹。
b. 疯狂迭代:创造云服务商持续更新设备的需求。目前英伟达基本每2-3年进行一次大的产品系列迭代,某些版本的迭代甚至需要全新的数据中心建设标准来配置GPU。
② 云服务商——微软:垂直一体化降本
云服务商目前供不应求,似乎享受行业红利,但长期承担着产能错配的风险,因为最大的资本开支由其承担,一旦需求判断失误、数据中心闲置,云服务商将成为损失最惨重的环节。具体来看:
a. 短期:云服务毛利率更低
当前的短期问题是,由于GPU过于昂贵,GPU云服务比传统云服务毛利率更低。根据微软CEO纳德拉的说法,目前AI云业务中产生利润的不是GPU,而是除GPU外的其他设备部署(存储、网络、带宽等)——换言之,现在的AI数据中心因GPU太贵,实际上是用GPU引流,靠搭售附加产品盈利。
b: AI算力的摊销折旧风险
运营商生意是重资产业务,最怕生产资料投入的摊销折旧周期过短(风能发电厂和3G时代的电信运营商曾有过类似问题);英伟达推新过快(两年一次),折旧年限至关重要。
c. 前置投资风险
长期承担资源整合和资金风险(资本开支);如果客户盈利能力不足、场景落地缓慢、技术迭代突然出现非线性变化(例如模型变轻、小模型能在端侧完成AI大任务,或软件迭代大幅减少算力需求),可能导致后续产能利用不足,云服务商面临产能与需求误判,最大风险不是应用账款无法收回,而是数据中心产能浪费。
显然,从云服务商角度,可以采取措施降低数据中心的最大成本项——GPU成本,例如绕过英伟达税,自研专有算力芯片;虽然需要将部分设计工作外包给博通、Marvell等ASIC设计商,但整体能大幅降低成本。根据资料,构建1GW算力中心,使用英伟达GPU的成本约为500亿美元,而使用TPU约为200-300亿美元。
③ 下游应用(含模型)主要风险——生产资料成本过高,收入不匹配,现金流断裂风险。
这里以OpenAI作为终端场景应用股(包含模型层)。
收入高速增长:根据媒体披露,按OpenAI目前的月收入推进速度,2025年底年化收入预计达200亿美元,2025年全年收入130亿美元,同比增长250%。
支出飙升更快:问题在于,收入高速增长过程中,并未出现正常商业模式下收入放大后亏损率逐步收窄的情况,反而支出增长斜率高于收入增长斜率,收入越大,亏损反而越严重。
根据媒体披露信息,2025年收入130亿美元,亏损估计至少150亿美元左右;如按微软财报信息(按40%股权计算),OpenAI年化亏损应已超过300亿美元。
OpenAI当前的诉求也很明确:首先,云服务成本过高导致收入不经济,收入增加反而亏损更严重;同时,由于收入缺口巨大,公司需要融资并进一步扩大收入,但在扩大收入过程中,依赖外部云服务供应商容量不足,导致产品推新延迟(例如Sora因此推迟,OpenAI Pulse高定价拖累渗透率)。
AI技术(模型)迭代迅速,逐步成熟至可落地水平,但部署成本过高——云服务成本太高,无法支撑技术在应用场景上的快速扩展。
上述经济账模拟清晰显示,高成本源于产业链加价过重——英伟达芯片毛利率75%(加价率4倍)、云服务商毛利率约50%(加价率2倍),到OpenAI使用时,铲子成本已过高,即便是互联网历史上增长较快的应用,也无法覆盖更快速度的成本上升。
于是产业链博弈开始!
英伟达因在数据中心中的价值量和技术壁垒较高,试图掏空云服务商的价值,使其沦为GPU的包工头。而云服务商认为英伟达税收取过高,希望通过自研芯片消除英伟达的超额利润。
自从微软解除了OpenAI只能使用Azure作为云服务提供商的限制后,OpenAI已明确表达意图:自建数据中心。OpenAI似乎希望消除上游每一段的超额溢价,最好将算力价格压至白菜价,以推动应用繁荣。
结果出现了2025年底最受欢迎的商业模式,也是当前最热门的投资赛道“全栈AI”,本质上就是产业链的垂直一体化。三家巨头操作不同,但都在朝垂直一体化方向努力:
① 英伟达:英伟达+新兴云小弟们=削弱大型云服务商产业地位
依赖GPU垄断地位,通过优先供应最新机架系统、产能回购协议等,扶持一批依赖英伟达发货排序的新兴云平台,如Coreweave、Nebius等,其中对Coreweave的回购兜底最为突出。
这些新兴云平台前期普遍大量融资,大多依赖英伟达的供货倾斜或融资支持,最终其产能基本使用英伟达芯片。通过这一操作,英伟达实际上除大型云服务商外,锁定了其他小云服务商的GPU选择权。
但对于此操作,微软CEO纳德拉曾在访谈中间接表示:“一些人以为提供云服务,就是买一堆服务器,插上电就可以了。”言外之意,云服务实际是非常复杂的业务,门槛不低,否则全球云服务市场不会被三四朵云垄断。
从这个角度看,今年被爆炒的新兴云服务商,一定程度上是在GPU供给紧缺时,英伟达通过优先分配权扶持的下游代理商(二道贩子)。假如长期产业供需平衡,产业竞争逻辑回归正常的技术、资金、渠道和规模导向型商业模式,这些新兴云能否持续存在尚难定论。
似乎AI新兴云玩家,更像是AI基建上半场产业链博弈中的过程产物,而非供需平衡下终局格局中能与云服务巨头分庭抗礼的竞争对手。
② 云服务商:云服务商+ASIC设计商+下游产品=削弱英伟达芯片垄断溢价
a.目前GPU用量较大的公司基本都开启了自研芯片的努力,除了云服务商,一些单体用量较大的下游客户如Meta、字节、特斯拉等也在自研ASIC芯片。
在ASIC芯片自研子产业链中,ASIC设计外包商如博通、Marvell、AIchip、AUC、联发科等,都是高价值资产。
b. 讨价还价的二供备胎价值
自研芯片启动最早、产品名声最高的主要是谷歌联合博通研发的TPU,直接供应了Gemini 3的研发;同时,亚马逊也较早启动了自研GPU的研发(训练芯片Trainium、推理芯片Inferentia)。
根据英伟达此次财报(Anthropic首次开始使用英伟达合作),Anthropic模型的研发应主要基于亚马逊的云和Trainium芯片。
全球两个性能领先的模型Gemini和Anthropic,一个完全不用英伟达芯片,一个用量较少,却都将模型训练到领先位置,这已明显影响英伟达在算力行业的定价权。
在此案例影响下,下游客户通过威胁使用TPU(甚至未必真部署),就能迫使英伟达为锁定订单,通过融资担保、股权融资、剩余产能兜底等方式间接降价,本质上是客户压低了部署GPU的成本。
这已是英伟达算力地位受到威胁的实际体现。
c. 下游产品渗透:产品线全系AI武装,防守ChatGPT崛起
这些处于中间环节的云厂商,核心业务多涉及下游模型和软件应用场景,除了向上通过垂直一体化防止英伟达在云业务上“偷家”,向下还需让全系产品场景都配备AI,与ChatGPT竞争,防止被ChatGPT颠覆。
③ OpenAI:产业链自主=Stargate计划
而处于模型厂和应用场景的新公司OpenAI,在严重亏损下,不愿受制于巨头,试图以自身影响力,通过融资自建基本自主的产业链。OpenAI的大致图景是——上游算力自研和外采各半(AMD的6GW作为备胎算力)、中游云服务完全听命于自身,以帮助保持技术领先并推广AI应用。
a. 自建数据中心:OpenAI+融资+芯片商+Oracle=Stargate
从公司股权架构设计看,Stargate实质上是一个专门服务OpenAI算力需求的大型新兴云公司(设计产能10GW)。OpenAI通过初期投资入股,在Stargate公司持股40%,强化对算力基础设施的主导权。
b. 绑定订单:作为深受高价算力和供给不足束缚的云服务终端客户,最符合OpenAI利益的是过剩且廉价的算力。利用上游供应商的错失恐惧心理,绑定一切可绑定的产能,以未来收入预期作为偿付能力,锁定芯片供货。
但这里OpenAI的年化收入需在三年内从200亿美元增长至1000亿美元,才有真正支付这些付款承诺的可能性。目前尚无巨头在几年内将收入提升至千亿美元以上。合理推测,其目的之一可能是有意制造供给过剩,以压低算力成本。
OpenAI CEO奥特曼被问及是否会出现算力产能过剩时,毫不掩饰对算力过剩的渴望:“肯定会出现多轮算力过剩,无论是2-3年内还是5-6年内,可能在这个时间段内出现多次产能过剩。”(“there will be come to a glut (of compute) for sure, whether it’s 2-3 or 5-6 years at some point, probably several points along the way.”)
从以上分析可见,当前整个AI产业链因利润过度集中于上游(一定程度上类似新能源车崛起过程中利润一度高度集中于赣锋和天齐锂业等锂矿股),导致下游在场景应用上如同用金铲子挖土,场景落地时生产资料成本过高,产出完全无法匹配成本。
因此,在当前产业链矛盾下,接下来的AI投资需在产业链利润下移和结构性供给过剩中寻找机会,只有算力成本下降,才能带动下游繁荣。
所谓结构性过剩,例如传统电力和机房建设速度跟不上,导致算力闲置;而产业利润下移,重点跟踪模型在终端场景的落地速度、对SaaS股的潜在影响、端侧产品的AI渗透、AI带来的新硬件如机器人与AI眼镜等。
截至目前,已开始出现产业链利润下移的迹象,例如英伟达的客户可用TPU作为威胁,要求英伟达提供更优惠的供货条件(同样售价下需连带股权投资,实为间接降价)。
以下提供几个可持续跟踪和验证的判断:
a. 英伟达后续再享戴维斯双击的机会可能很小,股价只能靠业绩增长,难以靠估值扩张;这将在不影响台积电逻辑的情况下,单独打压算力估值。
b. 谷歌开始销售裸芯而非更高利润的TPU云租赁的新闻说明,一方面谷歌在自有芯片排产上并无问题(台积电产能安排问题)。
另一方面,行业真正紧缺的到2026年可能已转向IDC数据中心建设(如数据中心建设的水污染、用电问题等),而这部分投资并非生意壁垒投资,而是产能错配投资。需时刻关注新开工数据中心建设节奏。
c. 创业企业:AI游戏门槛过高,OpenAI等新兴公司想颠覆巨头并不容易,过度押注OpenAI链上资产并非明智之举。
本文由主机测评网于2026-01-31发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260122117.html