人工智能领域的定价策略正出现显著转向。近日,DeepSeek宣布调整其API服务价格,标志着持续半年多的行业价格战进入新阶段。
据智东西8月23日报道,DeepSeek于8月21日正式推出DeepSeek-V3.1模型,并同步公布新的收费方案。自9月6日起,该公司将执行全新价格表,其中取消了今年2月实施的夜间优惠措施,实现推理与非推理API统一计价,输出价格定为12元/百万tokens。此次调整使得DeepSeek API的最低使用成本较以往提升了50%。
DeepSeek曾在业内享有“价格屠夫”的声誉,特别是在2024年5月凭借DeepSeek-V2将API价格降至输入1元/百万tokens、输出2元/百万tokens的行业低位,引发市场震动。
当时,这一激进定价策略迅速引发连锁反应。智谱、字节跳动、阿里巴巴、百度、科大讯飞、腾讯等主流厂商纷纷跟进降价,部分产品的最高降幅达到80%-97%,更有企业将轻量级模型完全免费开放,从而掀起持续半年多的大模型价格竞争浪潮。
▲2024年5月多家厂商发布的大模型降价公告
然而进入2025年,市场态势发生明显变化。国内“大模型六小虎”中,已有智谱、月之暗面、MiniMax、阶跃星辰四家企业对部分API价格进行上调,百川智能、零一万物两家则保持价格稳定;而阿里巴巴、字节跳动、腾讯、百度、科大讯飞、商汤等大型科技公司广泛采用阶梯定价机制,或显著区分“推理”与“非推理”模式的价格差异。整体而言,行业API价格趋于平稳,部分产品甚至出现明显回升。
国际市场上,尽管主要厂商仍在宣传智能成本将不断下降,但实际定价却呈现不同景象。过去一年中,OpenAI、Anthropic、谷歌等企业的API价格基本保持稳定,甚至出现小幅上涨。同时,订阅服务价格持续攀升,顶级模型大多被设置在200美元/月及以上价位,xAI更是推出了每月300美元的高端订阅方案。
在此背景下,DeepSeek的价格调整成为行业趋势的一个缩影:当前,大模型价格的下行速度明显放缓,顶级AI服务不再无限降价,反而开始呈现稳定态势,并略有回升。
以下信息均来源于公开渠道,如有疏漏敬请指正。
大模型价格战曾是2024年国内AI领域最受关注的现象之一,API价格一度降至每百万tokens仅几毛钱。然而进入2025年后,这一降价趋势基本停滞,尤其是对于最先进的模型而言。
以DeepSeek为例,去年年底DeepSeek-V3发布时,公司推出了45天限时优惠;优惠结束后,DeepSeek-Chat API(非推理API)的输出价格从2元恢复至8元/百万tokens;而今年9月,这一价格将进一步上涨50%,达到12元。
DeepSeek-Reason API(推理API)的价格相对稳定,并在今年9月将输出价格从16元降至12元/百万tokens。但总体来看,DeepSeek API的价格仍呈上升趋势。
▲DeepSeek API价格变动趋势(智东西制图)
在大模型六小虎中,智谱、月之暗面、百川智能、MiniMax、阶跃星辰、零一万物的定价在2025年第一季度后基本未出现显著下降。
智谱上一代GLM-4模型的API定价不区分输入输出与token数量,统一为5元/百万tokens。而今年7月发布的GLM-4.5模型,在取消发布初期限时优惠后,其高速推理版本(GLM-4.5-X)的输出价格最高可达64元/百万tokens。
即使按最低档计算(使用GLM-4.5,输出长度小于32K,输出长度小于0.2K,推理速度30-50 tokens/秒),输出价格也从5元/百万tokens上升至8元/百万tokens。
▲GLM-4.5定价详情(图源:智谱开放平台官网)
月之暗面于2024年8月正式推出企业API,当时在128K上下文场景中,输入输出定价均为60元/百万tokens,属于行业较高水平。
今年4月,月之暗面对部分API价格进行调整,其最新K1.5模型的API输出价格降至30元/百万tokens;但在Kimi K2推出后,128K上下文场景中的高速输出价格又回升至64元/百万tokens。
▲月之暗面Kimi大模型API定价变化,数据选取最高档定价(智东西制图)
百川智能长期未调整API价格,其旗舰模型Baichuan4的调用价格自2024年5月发布以来,一直保持在输入输出均为100元/百万tokens的水平。
▲百川智能API价格表(图源:百川智能)
2024年8月,MiniMax对其当时旗舰文本生成模型abab-6.5s进行大幅降价,输入输出价格统一为1元/百万tokens。但目前该模型已在API开放平台下架。
MiniMax新一代文本生成模型MiniMax-Text-01(2025年1月发布)定价为输入1元/百万tokens,输出8元/百万tokens;而其推理模型MiniMax-M1(2025年6月发布)采用阶梯定价,最高价格为输入2.4元/百万token,输出24元/百万token。
▲MiniMax大模型API定价变化趋势,数据选取最高档定价(智东西制图)
阶跃星辰以多模态为特色。今年4月,公司发布Step-R1-V-Mini多模态推理模型,输出价格为8元/百万tokens。7月发布的新一代多模态推理模型Step 3调整为阶梯定价,输入≤4k的价格基本持平或略有下降,在最高档(4k < 输入≤ 64k)价格有所上涨,输出价格为10元/百万tokens。同时,Step 3最大上下文窗口为64K,较Step-R1-V-Mini的100K有所缩小。
▲阶跃星辰大模型API定价变化趋势,数据选取最高档定价(智东西制图)
零一万物于2024年10月发布Yi-Lighting,价格为0.99元/百万tokens,此后未再更新API模型价格。目前调用Yi-Lighting时,系统会根据用户输入智能路由至DeepSeek-V3、Qwen-30B-A3B等模型。
▲零一万物大模型API定价表(图源:零一万物)
资金实力雄厚的科技巨头也在2025年放缓了模型降价的步伐。
字节跳动于2024年5月首次推出豆包Pro系列,小于32K上下文的豆包通用模型Pro输入价格仅为0.8元/百万tokens,输出价格为2元/百万tokens。字节跳动火山引擎总裁谭待在发布会上表示,这一定价“比行业价格低99.3%”,将大模型价格战推向舆论焦点。
在32K上下文场景下,2025年1月发布的豆包1.5 Pro与2025年7月的豆包1.6,保持了豆包通用模型Pro的价格水平。
然而,字节进一步细化了定价规则,根据输入、输出两个变量动态调整价格。当模型输出超过200个token(约300汉字)时,豆包1.6的输出价变为8元/百万tokens,输入价不变。
▲豆包1.6阶梯定价细则(图源:火山方舟)
从初代豆包Pro,到豆包1.5 Pro,再到豆包1.6,字节豆包大模型API的最高价变化趋势如下:
▲字节跳动豆包大模型API定价变化趋势,数据选取最高档定价(智东西制图)
阿里巴巴通过阿里云百炼提供大模型API服务。由于旗下模型众多、更新频繁,且分开源与商业版本,此处主要追踪其主力商业API服务Qwen-Plus在2025年的价格变化。
可见,Qwen-Plus在今年4月新版本推出并引入思考与非思考模式区别后,思考型输出价格达到非思考输出的4倍。
今年7月版本更新后,Qwen-Plus全面采用阶梯定价,128K输入以下的调用价格与4月持平,但当输入量超过128K时,价格显著上涨,最高输出价格达64元/百万tokens。
▲阿里Qwen-Plus API价格变动情况(智东西制表)
2024年7月,百度宣布将其旗舰模型ERNIE 4.0降价,以输入40元/百万tokens、输出120元/百万tokens的价格提供服务;后续逐步将ERNIE 4.0的推理价格降至行业常见的输入4元/百万tokens、输出16元/百万tokens(具体降价时间未公开)。今年3月推出的ERNIE 4.5维持了这一定价,未进一步下调。
▲ERNIE 4.0、ERNIE 4.5模型价格(图源:百度)
腾讯是国内大厂中少数仍在下调大模型API价格的企业。2024年9月,腾讯发布混元Turbo大模型,定价为输入15元/百万tokens、输出50元/百万tokens,当时属较高水平。
目前,混元Turbo价格已降至输入2.4元/百万tokens、输出9.6元/百万tokens;2025年3月发布的混元TurboS价格则进一步降至输入0.8元/百万tokens、输出2元/百万tokens。
▲部分腾讯混元大模型价格(图源:腾讯云)
科大讯飞的API服务按token包计费,不区分输入输出,不同套餐折合单价各异。
按价格区间中值计算,2024年1月推出的星火3.5价格约25元/百万tokens,同年6月推出的星火4.0价格约60元/百万tokens,同年10月发布的星火4.0 Turbo及2025年1月升级版均维持此价格水平。
▲讯飞星火3.5、星火4.0、星火4.0 Turbo价格变化(智东西制图)
讯飞还推出了基于全国产算力训练的深度推理大模型星火X1,价格约11元/百万tokens。
商汤旗舰模型日日新系列API价格从2024年5月的20元/百万tokens,回落至2025年4月的9元/百万tokens,今年7月最新发布的SenseNova-V6.5 Pro保持了这一价格。
▲对应模型分别为日日新SenseChat-5-1202、SenseNova-V6-Pro、SenseNova-V6.5 Pro,均为当时商汤最先进模型(智东西制图)
国际主流大模型厂商之间虽未爆发明显价格战,但“宣称智能成本将持续下降”成为海外AI领袖热衷的话题。
今年7月,OpenAI联合创始人兼首席执行官Sam Altman表示:“智能的价格将低至可忽略不计,我们能在未来至少五年内,将每单位智能成本每年降低至原来的十分之一。”
2024年9月,谷歌首席执行官Sundar Pichai也表达了类似观点:“在不远的将来,智能将像空气一样充裕,并基本对所有人免费。”
然而,近期The Information的统计数据揭示了相反的现实:海外主要大模型厂商的API价格在2024年7月后的一年多里未显著下降,甚至略有上涨。
例如,OpenAI的GPT系列模型每百万tokens价格自2024年底降至12.5美元后未再大幅下调,目前维持在11.25美元水平。
Anthropic的Claude 3、Claude 4系列模型自推出以来从未降价。
谷歌的Gemini Pro模型调用价格出现上涨,从Gemini-1.5 Pro的12.5美元/百万tokens涨至17.5美元/百万tokens。
▲最先进的通用模型价格近期基本未下降(图源:The Information)
过去一年,多家海外头部AI公司相继推出月费超过200美元的高阶订阅方案。
OpenAI与Anthropic均设立了200美元/月的订阅档位;谷歌最新的AI Ultra捆绑包定价为249.99美元/月;xAI旗下的Grok更进一步,将顶级订阅方案设定为300美元/月的高价。
这些高端服务的共同点是:用户需支付高额月费才能使用各家发布会上展示的性能最强旗舰模型。无论是更强的推理能力、更长的上下文窗口,还是更精准的代码处理能力,均成为高付费用户的专属资源。
那么,究竟是哪些因素导致AI服务价格下降趋势停滞甚至逆转?
大模型厂商在算力、数据及人才等方面的巨大投入,驱动了过去一年AI模型性能的快速提升。
算力方面,GPU租赁价格已趋稳定。智东西收集的数据显示,2024年9月左右,AWS、微软Azure、谷歌云等主流公有云上的H100每卡时租赁价格约在5-11美元之间。
今年,根据算力市场数据分析公司Silicon Data的GPU价格指数,H100基本稳定在每卡时租赁价格2-3美元区间,未出现大幅波动。
▲H100 GPU租赁价格(图源:Silicon Data)
同时,新一代大模型在训练和推理阶段的算力需求不断增加。结合相对稳定的GPU价格,算力成本成为限制AI服务价格继续下探的关键因素之一。
数据也是当今大模型训练的重要成本项。初期由于监管不完善,训练数据获取成本较低。随着相关诉讼增多和合规审查趋严,为避免法律纠纷,厂商开始主动与企业签订合同购买授权数据。
例如,据《华尔街日报》报道,OpenAI与美国出版集团News Corp签署的5年数据使用协议金额可能高达2.5亿美元;谷歌与Reddit达成的AI内容许可协议,据路透社报道,年费约6000万美元。
与此同时,模型背后人才的成本也在持续上涨。
在国内,猎聘大数据研究院7月发布的《2025上半年人才供需洞察报告》显示,当前国内AI人才缺口已突破500万,AI技术人员平均年薪为32.35万元,50万年薪以上岗位占比达31.03%。AI技术人才的期望年薪甚至高于当前平均水平,为44.09万元。
在硅谷,AI人才争夺战激烈。除个别高薪案例外,AI人才整体薪资显著高于其他行业。国际职场平台Levels.FYI数据显示,在旧金山湾区,ML/AI工程师薪资中位数比所有软件工程师薪资中位数高约13%。考虑到统计包含ML/AI工程师,后者的实际薪资优势可能更大。
▲美国旧金山湾区ML/AI工程师薪资(图源:Levels.FYI)
构建大模型的成本日益高昂,而随着推理模型范式兴起及Agent等长序列任务出现,用户使用量不断攀升。大模型订阅如同“无限流量套餐”,用户使用越多,厂商服务成本越高,部分企业已面临入不敷出的困境。
本月,Anthropic旗下的Claude Code编程Agent取消了200美元/月订阅方案的无限调用权限,原因是有用户几乎24小时不间断使用大模型,服务成本已达每月数万美元,远超订阅定价。
Anthropic在发布会上宣称,Claude 4 Opus可连续工作7小时完成编程任务。按Claude 4 Opus约50 tokens/秒的推理速度计算,此类任务约消耗126万token,成本约113.4美元。
面对高昂服务成本,大模型厂商纷纷采取措施降低成本。
DeepSeek在其最新模型中提出了多种降本方法。例如,对DeepSeek-V3.1进行思维链压缩训练后,模型推理时输出token数可减少20%-50%,且各项任务平均表现与DeepSeek-R1-0528持平。这意味着DeepSeek的聊天机器人能在不影响效果的情况下显著降低成本。
DeepSeek-V3.1还在一体化模型中支持思考与非思考模式,开发者可通过特定标签控制推理开关,进一步节省API使用成本。
腾讯混元通过架构创新实现降本。在混元TurboS上,腾讯融合了两种架构,使Transformer的上下文理解力与Mamba的长序列处理能力结合,实现性能与效率平衡。
OpenAI在GPT-5上采用“模型自动路由”方式:判断任务复杂度,将简单需求分配给轻量模型处理,从而节省算力资源。托管GPT-5的微软Azure称,此方式最高可削减60%推理成本。
然而关键在于:大模型厂商和云服务提供商的成本下降,未必转化为终端用户与企业使用成本的降低。当前,如何在巨额前期研发与部署投入后,将千亿美元级AI投资转化为商业价值,已成为所有参与者必须解答的问题。
未来,大模型价格下降仍存在几条路径。一方面,随着模型平均性能提升,经过优化的中低端廉价模型可高效解决特定任务。此外,随着大模型、芯片领域基础研究进步,新技术路径不断涌现,或许能在不牺牲效果的前提下进一步压缩训练与推理的单位成本。
从产业发展角度看,大模型价格的阶段性停滞或回升具有积极意义。这为厂商回收前期巨额研发与基础设施投入、维持可持续创新提供了缓冲期,也能推动市场加速探索明确的商业化场景和付费模式。产业有望借此营造更成熟、健康的生态。
本文由主机测评网于2025-12-25发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20251212518.html