自2022年末ChatGPT横空出世以来,三年间AI热潮席卷了从算力芯片、存储设备、网络通信、制造代工、电力基建,到软件应用乃至边缘终端的每一个细分赛道,各路资本轮番炒作,热度空前。
然而,当时间来到三周年的节点,尽管AI基建的领军企业在三季度财报前后纷纷宣布了史无前例的AI基础设施投资计划,市场却突然陷入迷茫,开始担忧AI投资是否已泡沫化。
产业链上,既有赚得盆满钵满的赢家,也有亏到疯狂融资的输家,问题究竟出在哪里?眼花缭乱的融资背后又隐藏着怎样的逻辑?
本篇,海豚君将透过产业链核心公司的财报,深入剖析这些问题,并试图解答:AI投资是否真的步入泡沫阶段?如果泡沫存在,其根源又在哪里?
下面这张广为流传的图,其实忽略了一个关键角色:整个产业链的最终用户——OpenAI等模型厂商,它们的收入规模相较于庞大的投入显得微不足道,因而未能在图中体现。
但这张图的核心信息,其实揭示了一个古老的商业现象:下游客户通过上游供应链的资金来为自己融资,即所谓的供应链融资。
与此同时,一级市场的模型巨头们进行供应链融资的同时,二级市场的应用巨头们也开始普遍采用表内、表外债券融资的方式(详细分析见此处)
但问题在于,为何芯片巨头英伟达赚得盆满钵满、市场高呼AI是新一轮技术革命的同时,AI拓荒者OpenAI却需要布下如此庞大的融资棋局?为何原本现金流充裕的谷歌、Meta等美股巨头,如今也需依赖债务来支撑未来发展?
答案其实很简单:AI产业初期,产业链利润分配严重不均,上游企业几乎攫取了绝大部分超额利润。
AI主产业链主要由五类玩家构成:晶圆代工(台积电)——算力商(英伟达)——云服务商(微软)——模型商(OpenAI)——终端场景应用。这五层共同分食产业利润。
1.1)从云服务商的经济账说起:到底谁赚了红利、谁赚了吆喝、谁担了风险?
A. 云服务商们的经济账:100元收入分布——55元成本、10元运营开支,35元利润;
下面,海豚君通过一本简单的产业链经济账,带大家直观感受这场三年AI繁荣的真相。我们知道,云服务是一个既重资金壁垒,又重技术壁垒的行业。它的前半部分如同盖房子,需要完成机房建设、机柜布线、冷却系统等硬装环节。
软装部分则是部署GPU、CPU,并确保GPU内部及之间的高速连接,再加上网络、带宽和电力供应,软装基本完成。这些要素组合起来,再通过技术人员赋予“灵魂”,便构成了基础的IaaS服务。
从以上要素不难看出,云服务虽然听起来高大上,但本质上仍未摆脱运营商生意的范畴——将各种重资产与技术组合,通过租赁服务赚钱。
这个生意的核心在于成本控制:例如,成本最高的GPU需能使用十年八载,不能像光伏电站那样频繁更换光伏板。
来源:英伟达NDR材料
按海豚君的估算,若云服务商以全新的AI产能提供AI云服务,每赚100元,约有35元为前期设备(主要是GPU)的摊销折旧。按目前云服务商普遍采用的五年折旧期计算,对应的资本开支高达175元。
其中,英伟达GPU(含网络设备)贡献了约125元(70%以上),其余为CPU、存储、网络设备等。
除固定成本外,还有能源电力、带宽、运维等成本,运营费用则包括研发、销售和行政等。100元收入最终实现的账面经营利润约为35元。
从这些数据中,可以清晰看到两个突出问题:
① AI基建早期,云服务商只有账面利润,实际现金流严重吃紧:在这个模型中,云服务商账面赚了35元,但实际在获得收入前,已需提前垫付175元采购GPU设备。也就是说,CSP仅有账面利润,实际投入是倒贴的。
② 数据中心疯狂融资:云大厂依靠原有现金牛业务支撑,而新兴云厂商如CoreWeave、Nebius、Crusoe、Together、Lambda、Firmus和Nscale等,因缺乏现金流业务,普遍需发行资产抵押证券融资来提供云服务。
B. 100元的云服务收入,如何流入英伟达、OpenAI账本?
① 算力提供商(英伟达)——盆满钵满的设备股
云服务的成本,即是英伟达的收入。每100元云服务收入中,包含35元设备折旧(五年期),这意味着提供这些服务需提前采购约175元设备。英伟达GPU约占采购价值的70%,即100元云服务收入中,有125元流向了英伟达的GPU设备采购。
显然,作为云服务商生产资料中单体价值最大的环节,英伟达在AI基建早期赚得盆满钵满。
② 眼下的Open AI——8亿WAU,但亏光裤子的应用股
整个产业链中,OpenAI作为云服务的需求侧,是需求的源头,其偿付能力决定了产业链循环的健康度。但目前OpenAI的创收能力来看,投入大量算力资源,结果却如同“金铲子挖土”。
首先,云服务商100元的GPU租赁收入,对OpenAI而言就是其为用户提供服务所需的云服务成本。根据媒体披露的OpenAI 2025年上半年财务状况,100元云开支仅能对应96元收入,再加上研发、营销和管理支出(不含期权激励),100元支出基本导致公司亏损100元。
C. 核心矛盾:产业链利润分配严重扭曲
将这三家公司的经济账放在一起,一幅对比鲜明的产业链利润分配图景便浮现出来:产业链核心环节的利润、风险与收益分配极度不均衡。
上游铲子股——以英伟达为代表的算力资产,凭借垄断地位,不仅收入增长快,且应收款风险低,盈利质量高,赚得盆满钵满;
中游资源整合方——云服务商承担着庞大的产业链投入和资源整合,前期投入巨大,账面赚钱但实际现金流吃紧,成为事实上的最大风险承担方;
下游应用商——生产资料(云服务)成本过高,收入太少,仅能覆盖部分云服务成本,是亏在明面上的应用股。而应用股的健康程度,才是决定产业链健康度的关键。
这种利益不断向上游集中的格局,加剧了AI主产业链的矛盾,行业竞争动态天平开始显著变化:
① 算力——英伟达
英伟达凭借第三方GPU的垄断地位,尤其在训练阶段的独特优势,享受了AI基建早期的最大红利。但它的产品并非易耗品,而是可使用多年的资本品。其高成长性,从行业Beta角度,主要集中在AI数据中心的产能投建期。公司的增长斜率高度依赖云服务商的资本开支增长斜率。一旦云服务商的资本开支在高位稳定下来,不再高速增长,芯片商收入将面临零增长;若错判周期,叠加存货减值,利润率将直线下滑。
最新季度,英伟达前四大客户贡献了公司61%的收入,显然其收入就是云服务商们的资本开支预算。
来源:英伟达2025年NDR材料
当下在4-5万亿市值的压力下,英伟达需持续交付芯片,撑起美股半边天。因此,其核心诉求是继续卖出更多芯片,方法包括:
a.芯片销售扩散到海外市场,例如特朗普曾带领GPU商家赴中东等地签单;同时,因痛失中国市场,黄仁勋甚至发出美国可能输掉AI战争的感慨。
b. 疯狂迭代:创造云服务商持续更新设备的需求。目前英伟达基本每2-3年进行一次重大产品迭代,有些版本甚至需要全新的数据中心建设标准来适配。
② 云服务商——微软:垂直一体化降本
云服务商目前看似供不应求,享受行业红利,但长期承担着产能错配的风险。最大的资本开支由其承担,一旦需求判断失误,数据中心闲置,云服务商将成为损失最惨重的环节。具体来看:
a. 短期:云服务毛利率更低
当下的短期问题是,由于GPU太贵,GPU云服务比传统云服务毛利率更低。按照微软CEO纳德拉的说法,目前AI云业务中真正产生利润的不是GPU,而是除GPU之外的其他设备部署(存储、网络、带宽等)——换句话说,现在的AI数据中心,因GPU过贵,实际上是靠GPU引流,通过搭售附加产品来赚钱。
b: AI算力的摊销折旧风险
运营商生意是重资产业务,最怕生产资料投入的摊销折旧周期过短(风能发电厂和3G时代的电信运营商都曾深受其害);英伟达推新太快(两年一次),折旧年限至关重要。
c. 前置投资风险
长期承担资源整合和资金风险(资本开支);若客户盈利能力不足、场景落地慢、技术迭代出现非线性变化(如模型变轻,小模型在端侧完成大任务,或软件迭代大幅减少算力需求),可能导致后续产能利用不足,云服务商将成为下游客户失败的风险承担方,体现为数据中心产能浪费,而非应收账款坏账。
很明显,云服务商可以做的,是降低数据中心的最大成本项——GPU成本,例如绕过“英伟达税”,自研1P算力芯片;虽然需外包部分设计工作给博通、Marvell等ASIC设计商,但整体能大幅降本。资料显示,构建1GW算力中心,用英伟达GPU成本约500亿美金,而用TPU仅需200-300亿美金。
③下游应用(含模型)主要风险——生产资料成本太高,收入不匹配,现金流断裂风险。
这里以OpenAI作为终端应用股代表(含模型层)。
收入高速增长:根据媒体披露,按OpenAI目前的月收入推进速度,2025年年底年化收入有望达200亿美金,全年130亿美金,同比增长250%。
支出飙升更快:问题在于,收入高速增长的同时,并未出现正常商业模式下亏损率随规模扩大而收窄的情况,反而支出的增长斜率超过收入,收入越大,亏损反而越高。
按媒体披露,2025年收入130亿,亏损估计至少150亿上下;若按微软财报信息(40%股权),OpenAI年化亏损可能已超300亿。
OpenAI的诉求也很明显:首先,云服务成本过高,导致收入不经济,收入越多亏损越严重;与此同时,由于收入缺口巨大,公司需要融资来继续扩大收入,而外部云服务供应商容量不足,导致产品推新延迟(例如Sora因此推迟,OpenAI Pulse高定价拖累渗透率)。
AI技术(模型)迭代足够快,已逐步成熟到可落地程度,但部署成本太高——云服务成本过高,无法支撑技术在应用场景上的快速扩展。
以上经济账模拟清晰显示,高成本源于产业链层层加价——英伟达芯片毛利率75%(加价率4倍)、CSP(云服务)毛利率50%上下(加价率2倍),到OpenAI使用时,铲子成本已高到即使是互联网史上增长斜率最高的应用,也无法覆盖快速攀升的成本。
于是产业链博弈开始了!
英伟达凭借在数据中心中的高价值和高技术壁垒,试图掏空云服务商的价值,使其沦为GPU的“包工头”。而云服务商觉得英伟达“税”收得离谱,希望通过自研芯片打掉其超额利润。
自微软解绑了OpenAI仅能使用Azure作为云服务提供商的限制后,OpenAI已明确表达自建数据中心的意图,似乎想消除上游每一环节的超额溢价,将算力价格打到白菜价,以推动应用繁荣。
结果便出现了2025年底最受宠的商业模式,即当下最流行的投资赛道“全栈AI”,说白了就是产业链的垂直一体化。三家虽操作不同,但本质上都在朝垂直一体化方向努力:
① 英伟达:英伟达+新云小弟们=削弱CSP大厂产业地位
依赖GPU垄断地位,通过优先供应最新Rack系统、产能回购协议等,扶持一批依赖英伟达发货排序的新兴云平台如Coreweave、Nebius等,其中对Coreweave的回购兜底最为突出。这些新云前期大量融资,大多依赖英伟达的供货倾斜或融资支持,最终新云产能基本都使用英伟达芯片。通过这一操作,英伟达实际上锁死了除大型CSP外其他小云服务商的GPU选择权。
对此,微软CEO纳德拉曾在访谈中暗讽:“一些人以为提供云服务,就是买一堆服务器,插上电就可以了。”言外之意,实际云服务极为复杂,门槛不低,否则全球云服务市场不会被三四朵云垄断。
从这个角度看,今年爆炒的新云服务商,一定程度上是在GPU供给紧缺时,英伟达通过优先分配权拉起的下游代理商(二道贩子)。若长期产业供需均衡,竞争逻辑回归正常的技术、资金、渠道、规模导向,这些新云能否存续,尚是未知数。
似乎AI新云玩家,更像是AI基建上半场产业链博弈中的过渡产物,而非终局中能与云服务巨头分庭抗礼的对手。
② 云服务商:云服务商+ASIC设计商+下游产品=削弱英伟达芯片垄断溢价
a.目前GPU用量较大的公司基本都开启了自研芯片之路,除云服务商外,一些单体用量大的下游客户如Meta、字节、特斯拉等也在自研ASIC芯片。在ASIC自研子产业链中,ASIC设计外包商如博通、Marvell、AIchip、AUC、联发科等,均成为高价值资产。
b.讨价还价的二供备胎价值
自研芯片中,启动最早、名声最响的是谷歌联合博通研发的TPU,直接供应了Gemini 3的研发;同时,亚马逊也很早启动了自研GPU的研发(训练Trainium、推理Inferentia)。
按此次英伟达财报(Anthropic首次开始使用英伟达合作),Anthropic模型的研发其实主要基于亚马逊云和亚马逊的Trainium芯片。全球两个性能领先的模型Gemini和Anthropic,一个完全不用英伟达,一个较少用量,却都训练到了领先位置,这已开始影响英伟达在算力行业的定价权。
此类案例影响下,下游客户通过威胁使用TPU(甚至未必真部署),就能迫使英伟达为锁定订单而通过融资担保、股权融资、剩余产能兜底等方式间接降价,实质上降低了客户部署GPU的成本。
这些已是英伟达算力地位受到威胁的实际体现。
c. 下游产品渗透:产品线全系AI武装,防守Chatgpt崛起
这些处于中间环节的云厂商,本身核心业务大多为更下游的模型和软件应用场景。除了向上垂直一体化防止英伟达偷家,向下还需让全系产品场景都武装上AI,与ChatGPT展开竞争,防止被其颠覆。
③ OpenAI:产业链自主=Stargate
而处于模型和应用场景的新公司OpenAI,在血亏之下,不想受制于巨头,试图凭借自身影响力,通过融资自建一个基本自主的产业链。OpenAI的大致图景是——上游算力自研和外采对半分(AMD的6GW是备胎算力)、中游云服务完全听命于自己,以全力保持技术领先并推广AI应用。
a. 自建数据中心:OpenAI+融资+芯片商+Oracle=Stargate
从公司的股权架构设计来看,Stargate是一个专门服务OpenAI算力需求的大规模新兴云公司(10GW设计产能)。OpenAI通过最初的投资入股,在Stargate公司股权占比40%,强化对算力基础设施的主导权。
b. 绑定订单:作为一个深受高价算力和供给不足束缚的云服务终端客户,最符合OpenAI利益的其实是过剩且便宜的算力。利用上游供应商的FOMO心理,绑定一切能绑定的产能,用未来收入预期作为偿付能力,锁定芯片供货。
但OpenAI的收入需从年化200亿在三年内走到年化1000亿美金,才有能力兑现这些付款承诺。而目前巨头中,鲜有能在几年内将收入打到千亿美金以上。海豚君合理推测,其目的之一可能就是有意制造供给过剩,以便将算力成本打下来。
OpenAI CEO奥特曼在被问及是否会出现算力产能过剩时,毫不掩饰对算力过剩的渴望:“肯定会有多轮算力过剩,无论是2-3年内还是5-6年内出现,可能是这个时间段内的多轮过剩。”(“there will be come to a glut (of compute) for sure, whether it’s 2-3 or 5-6 years at some point, probably several points along the way.”)
从以上分析可见,当前整个AI产业链因利润过度集中于上游(类似于新能源车崛起时利润高度集中于赣锋锂业、天齐锂业等锂矿股),导致下游场景应用如同用金铲子挖土——生产资料成本过高,挖出的东西完全无法匹配成本。
因此,在这种产业链矛盾下,接下来的AI投资应聚焦于产业链利润下移和结构性供给过剩中的机会。只有算力成本打下来,才能带动下游繁荣。
所谓结构性过剩,例如传统电力和机房建设速度跟不上,导致算力闲置;而产业利润下移,则需重点跟踪模型在终端场景的落地速度、对SaaS股的影响、端侧产品的AI渗透、以及AI带来的新硬件如机器人与AI眼镜等。
到目前为止,海豚君已开始看到一些产业链利润下移的迹象:例如,英伟达的客户可以拿着TPU来威胁英伟达给出更优惠的供货条件(同等售价下,连带股权投资,就是一种间接降价)。
以下,海豚君提供几个可持续跟踪和验证的判断:
a. 后续英伟达再享受戴维斯双击的机会可能极小,股价只能靠业绩增长,很难靠估值扩张;这会在不打压台积电逻辑的情况下,单独打压算力估值。
b. 谷歌开始卖裸芯而非更高利润的TPU云租赁,这一新闻说明:一方面谷歌在自有芯片排产上并非问题(台积电产能安排无碍);另一方面,行业真正紧缺的到2026年可能已转向IDC数据中心的建设(如数据中心的水污染、用电等问题),而这部分的投资并非生意壁垒投资,而是产能错配投资。需时刻关注新开工数据中心的建设节奏。
c. 创业企业:AI游戏的门槛太高,OpenAI等新兴公司想要颠覆巨头并不容易,过度押注OpenAI链上的资产并不明智。
本文由主机测评网于2026-02-25发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260227141.html