当前位置:首页 > 科技资讯 > 正文

AI成本崩盘:智能走向日用品,商业逻辑全面重构

AI成本崩盘:智能走向日用品,商业逻辑全面重构 AI成本下降 智能日用品 商业模式创新 技术追赶速度 第1张

进入2026年,硅谷那些最善于捕捉趋势的精英们,开始关注一个更加基础的现实:AI的发展并非首先变得更强大,而是变得更廉价。

1月7日,a16z联合创始人马克·安德森在他的播客节目中分享了一个核心观点:

AI是他职业生涯中见证的最重大的技术变革,但关键不在于模型能力的飞跃,而在于智能本身正在从昂贵的稀缺品转变为普及的日常用品。

每一次调用AI的成本,正在以前所未有的速度下降。这不是缓慢的下降,而是断崖式的暴跌。

安德森同时强调:现在仍然处于早期阶段。成本已经大幅降低,但大部分商业机会尚未被创业者发掘。

这场访谈并未探讨技术前景或市场泡沫,而是聚焦于一个更具操作性的问题:如果智能像水和电一样便宜且无处不在,商业规则将如何改写?

变化将体现在四个维度:成本结构、技术路径、定价策略以及竞争格局。

如今的AI竞争,不再是谁的模型更强,而是谁能率先将廉价的智能转化为标准化的工作流程。

第一节|价格崩盘,收入腾飞

马克·安德森首先指出:AI的智能成本正在经历暴跌。

他说道:

“AI的单位成本下降速度,甚至超过了摩尔定律。”

模型越训练越强大,但每次调用所需的成本却越来越低。不是小幅降低,而是急剧下滑。

他特别提到,过去一年间,大模型的token成本快速下降。OpenAI、Anthropic、谷歌都在将AI能力整合到云服务中,争抢市场份额。竞争加剧,价格自然一泻千里。

硬件端的使用寿命也发生了变化。安德森引用AWS的数据:GPU的使用寿命从3年延长到7年以上。

企业购买一块GPU卡、建设一台服务器,能够运行AI的时间几乎翻倍,分摊到每次调用上的成本就降低了一半以上。

这意味着什么?智能正在变成一种可以批量采购、按需付费的新型资源。

在成本下降的同时,收入却在快速攀升。

安德森用“起飞”来形容过去一年AI公司的变现速度。他说:我们看到的AI公司,收入增长速度比以往任何技术浪潮都要快。

具体来看两端:

个人端:越来越多的消费者愿意为AI服务支付高价订阅。20美元/月不再是上限,现在200~300美元/月的高级套餐也开始吸引大量付费用户。

企业端同样如此:AI能帮助客服处理更多工单,帮助销售挽回更多用户,这些日常工作的改进直接带来回报。只要能产生结果,就有人愿意付费使用。

也就是说:价格在下行,价值在上行。

在安德森看来,这恰恰说明:AI并非泡沫,而是开始成为真正的生意。

第二节|AI不必最强,够用且便宜才是王道

第一节提到成本崩盘,但为什么会崩?

因为AI并不需要做到极致聪明才能发挥作用。

马克·安德森在对话中举了一个生动的例子:某些工作任务不需要“爱因斯坦”级别的智力,只需要一个聪明可靠的普通人就足够了。

这揭示了一个许多人忽略的机会:模型并非越大越好,够用即可,特别是在成本敏感的场景中。

过去一年,大量小型模型涌现。安德森特别提到中国的Kimi模型:最新版Kimi在推理能力上已追平GPT-5,但模型体积更小,成本更低,甚至可以在MacBook上运行。

他观察到一种规律:大模型推出后,6到12个月内就会出现同等能力的小模型。

大模型证明某种能力可行,小模型快速复制,然后以更低成本提供服务。

这带来了两个现实变化:

一是使用方式变了:AI正从高高在上的智慧大脑变成随手可用的便捷工具;

二是开发方式变了:初创公司、独立开发者都可以利用开源模型快速部署上线,甚至自己微调出专用模型。

但这并不意味着大模型会消失。

安德森认为,AI行业将形成金字塔结构:

顶端:少数超级模型,在巨型数据中心运行,永远保持最聪明;

底层:大量小模型,扩散到各种设备中,运行在手机、手表甚至每个物理物品内部。

就像计算机行业的演化:超级计算机并未消失,但真正改变世界的是无处不在的微芯片。

那么真正的机会在哪里?

不是去做最强,而是:谁能把智能压缩、量产、变成随时可调用的标准模块,谁就能抢占最大的市场。

因为当智能不再稀缺时,竞争的关键不再是“最强”,而是“用得起”。

第三节|AI应用不止是套壳,定价模式决定上限

过去一年,许多人评价AI应用公司时会说:这不就是套了一层GPT接口?

马克·安德森并不认同。

以AI编程工具Cursor为例:最初确实是调用大模型辅助编程,但很快,这类公司开始自己微调模型,甚至自研模型。产品不仅仅是换壳,而是在功能、速度和成本上进行了深度优化。

他将这种现象称为“向后整合”。

换句话说,以前是前端产品调用后端API,现在是:

从一个模型起步,最终使用12个、50个甚至上百个模型;

不同模型负责不同部分:界面回复、代码逻辑、上下文记忆;

针对垂直场景,自己训练定制模型。

这不是为了技术而技术,而是为了掌控整个技术栈。因为对业务理解最深的人,才知道哪些环节需要什么样的智能。

安德森说,最前沿的AI应用公司,实际上掌握了核心技术。

那么AI应用在定价上又如何?

这里的规则与第一节不同。第一节提到基础设施层(如OpenAI API)正在打价格战,成本暴跌。但应用层的定价逻辑完全不同。

因为定价逻辑已经分层

基础设施层:智能变成水电,按使用量计费,竞争激烈,价格走低;

应用层:产品卖的是结果,按价值计费,差异化大,价格可以走高。

关键在于:不要按成本定价,而要按价值定价。

传统SaaS按年订阅、按坐席收费,但AI应用可以探索更多可能性:

不是按“生成了几份文档”收费(使用量);

而是按“节省了多少工时”收费(价值);

或者按“提升了多少生产力”分成(回报)。

举个例子:如果一个AI编程工具让程序员效率提升30%,它可以收取这30%生产力带来的部分价值,而不是仅收取API调用次数对应的成本。

为什么高价产品反而更好卖?

因为用户购买的并非模型本身,而是结果。只要结果值这个价,就有人愿意付费。

这解释了第一节提到的现象:200~300美元/月的订阅越来越多,本质上这些产品在卖“解决了什么问题”,而不是“用了多少Token”。

按照这个思路,应用层的机会在于:

向后整合,掌控技术栈;

深耕场景,理解用户价值;

按价值定价,而不是按成本定价。

基础设施层将继续价格战,但应用层的天花板,取决于你能创造多少价值。

这个机会窗口,究竟留给谁?

第四节|追赶只需半年,不确定性成为新常态

很多人看AI行业时,第一反应是:已经有OpenAI、Anthropic等巨头,我们是不是来晚了?

但实际情况是,一旦有人证明某件事可行,其他人追上的速度会非常快。

几个具体案例:

xAI不到12个月追上行业前列:埃隆·马斯克的团队从零开始做Grok,不到一年就把产品性能拉到了OpenAI和Anthropic的水平。

DeepSeek用开源冲进主舞台:一家对冲基金背景的团队,用开源模型直接把能力推到全球视野,还能在本地运行。

多家中国公司同时追上:月之暗面(Kimi)、阿里巴巴(Qwen)、字节跳动、百度等,不到12个月都追到了前沿水平。

1、为什么追赶这么快?

安德森给出了三个主要因素:

第一,开源降低了学习门槛:领先者取得突破后,开源模型将“如何做”展示出来。任何人都可以学习、复制、改进。

第二,知识扩散速度极快:如今世界上最优秀的AI人才,很多只有22、23、24岁。他们不可能在这个领域积累很长时间,必然是过去四五年迅速成长起来的。如果他们能做到,未来会有更多人做到。

第三,成本已不再是门槛:前三节提到的成本塌陷、小模型崛起、云服务竞争,都在降低做AI的资源要求。不需要几千人团队,也不需要数十亿美元,一个小团队就能快速验证想法。

2、这对不同角色意味着什么?

第一,对现有的AI公司来说,这是个坏消息。

安德森指出:当一家公司不知道该往哪个方向发展时,这是个巨大的麻烦。因为公司必须做出选择,把资源押注在某个方向上。一旦押错,竞争对手追上来,优势就消失了。

这就是他所说的“万亿美元问题”:不是现成的答案,而是每个公司都要面对的战略不确定性。

第二,但对风投和创业者来说,这是个好消息。

a16z的投资策略是:不只投一个方向,而是同时支持多个有希望的路径。只要某种方法有可能跑通,就支持有人尝试一次。

对风投来说,不确定性意味着可以分散投资。

对创业者来说,不确定性意味着窗口仍然敞开。

总结来说:

领先者不再安全。追赶只需要半年到一年,技术方法已经透明,成本也已经降低。

但这也意味着,追上之后你也会被追赶。持续竞争变成了常态。

结语|不是AI更强了,而是你用得起了

马克·安德森表示,AI产业的转折点并非模型多么聪明,而是智能不再昂贵。

成本暴跌让智能变成了可以批量采购的新材料。小模型够用就能打,应用层可以按价值收费。而且追赶只需要半年到一年,领先者的护城河正在变浅。

这意味着什么?

模型再大,不如先落地。技术再强,不如用得起。

这场技术变革才刚刚开始,但商业竞争规则已经重写。

📮 原文链接:

https://www.youtube.com/watch?v=xRh2sVcNXQ8&t=1s

https://www.iheart.com/podcast/867-the-a16z-show-30965806/

https://hai.stanford.edu/news/ai-index-2025-state-of-ai-in-10-charts

https://www.reuters.com/technology/artificial-intelligence/openai-unveils-cheaper-small-ai-model-gpt-4o-mini-2024-07-18/?utm_source=chatgpt.com