当前位置:首页 > 科技资讯 > 正文

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征

这已是我们连续第三年对人工智能领域进行系统性年度总结与趋势前瞻。

回望2023年,OpenAI在模型领域近乎一枝独秀。而到了2024年,其多数时间处于被多方追赶的态势。进入2025年,中国大模型发展迎来关键的“破局时刻”,DeepSeek的强势崛起不仅改变了全球大模型赛道的竞争格局,更在全球范围内高举开源旗帜,引领了新一波创新浪潮。

纵观2025年,全球AI产业步入一个高速演变的周期。伴随模型范式的系统性重构、算力基础设施的加速建设以及应用场景的持续分化,世界模型与物理AI的涌现,正推动人工智能从“认知理解”向“行动决策”与“环境预演”的新阶段迈进。

这一年,AI产业的两条发展主线尤为凸显:一是美国与中国成为驱动全球AI前进的“双核心”,两者在技术路径与生态建设上各具特色;二是端侧模型、智能体能力、世界模型等关键技术开始从实验室演示快速走向工程化整合,进入“系统集成”的新阶段。

或许存在一丝遗憾的是,与2023、2024年相似,2025年依然是“模型能力突飞猛进”与“应用落地遭遇现实阻力”并存的年份。模型本身仍在快速进化,但当行业焦点从“大模型技术”转向“AI+产业融合”,也意味着社会对AI的期望已从前沿技术突破,转变为对其实体经济赋能价值的考量。2025年,AI应用侧虽不乏创新亮点,但规模化商业落地仍面临多重挑战。

在本报告中,我们尝试从模型技术演进、产业链与基础设施变革、应用生态发展三个维度切入,旨在呈现一份基于投资人视角的2025年AI产业深度洞察。我们期望探讨以下几个核心问题:

  • 模型技术的迭代正在将整个行业引向何方?
  • AI产业链的上下游格局正在经历怎样的重塑?
  • 对于AI领域的创业者而言,当前及未来存在哪些创新机遇,又该如何构筑可持续的竞争壁垒?

这不仅是对过去一年AI发展的梳理,更是对未来走向的深度思考。站在2025年的尾声,我们同样充满好奇:

  • 2026年的AI行业将会迎来哪些新的变革因素?
  • “AI+”将在哪些行业率先取得实质性重大进展?
  • 人工智能最终能否打破长期存在的“生产率悖论”?

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第1张

/ 01 / 全球大模型格局:双核驱动,开源崛起

当下,全球大型语言模型的发展呈现出鲜明的“双核驱动”特征。这一态势既体现于闭源与开源两条技术路线的并行发展,也深刻反映了地缘竞争的现状——美国与中国已成为推动人工智能技术进步的两大核心引擎。

一、双核驱动:技术路径与地缘格局的交汇

从技术视角审视,“双核”首先指向闭源与开源这两种截然不同的发展模式。闭源大模型主要由科技巨头主导(以OpenAI为典型代表),强调性能领先、产品闭环与商业价值实现;开源大模型则最初由具备雄厚资源的组织引领(以DeepSeek为代表),在开放协作的基石上,依托全球开发者社区的集体智慧、生态共建与透明化迭代,近年来展现出极其旺盛的生命力与创新速度。

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第2张

从全球竞争格局分析,美国凭借在计算硬件、核心算法与顶尖人才方面的长期积淀,在闭源模型领域保持着主导地位;而在中国,开源模式正成为人工智能发展战略中的重要方向。开源不仅有助于应对AI供应链的潜在风险与外部制约,更助力中国在全球AI竞赛中实现了关键性的技术突破。欧洲等其他地区虽有所布局,但整体仍处于追赶态势,尚未形成能够影响全球格局的自主模型体系。

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第3张

由此可见,当前驱动AI发展的核心动力已高度集中于中美两国,一方以闭源模式不断探索技术前沿,另一方则以开源战略构建广阔的生态纵深。

二、头部大模型:三足鼎立,战略分化

在顶尖大模型阵营中,OpenAI、Anthropic与Google形成了“三驾马车”并驾齐驱的态势,各自选择了差异化的战略路径。

OpenAI的GPT系列模型在综合能力上依然占据优势。它不仅持续引领技术前沿(例如率先引入复杂链式推理范式、发布高保真视频生成模型等),还通过ChatGPT等产品直接触达海量终端用户,展现出构建“一站式人工智能平台”的宏大愿景。

相比之下,Anthropic则更加聚焦于专业场景与垂直领域应用,如代码自动生成、网络安全分析等,发布了Claude系列模型及专门的Claude Code工具。近期Anthropic也在开发者工具与企业级解决方案方向上加大投入,力图抢占应用层的市场先机。

Google的Gemini路线此前似乎更倾向于“全面均衡”的发展策略,其模型能力体现在超长上下文处理、原生多模态理解、兼顾科研与创意需求等方面。最近半年,Google通过推出Nano Banana Pro等热门图像生成与编辑模型,试图在垂直创意与视觉内容生成赛道树立差异化标签,加快市场渗透。

三、开源的崛起:中国AI的战略突围与生态重构

如果说闭源模型象征着“精英主导式创新”,那么开源模型则更像一场由领先机构点燃、激发“全民协同工程创新”的运动。中国正借助这一模式实现战略层面的关键突围。

2025年堪称中国大模型发展的“决定性破局之年”,其中最具标志性的事件莫过于DeepSeek的横空出世。此前业界普遍预期中国会遵循“应用先行,模型后追”的路径,但DeepSeek不仅提前构建出高性能的基座大模型,更在全球范围内率先以开源方式成功复现了具备“长链复杂推理”能力的先进模型。

尤为关键的是,DeepSeek通过创新的训练与推理机制,将长链推理过程中的Token消耗成本大幅压缩,实现了在保持顶尖性能的同时,显著降低了实际部署与使用的门槛。这种“低成本、强推理”的新范式迅速在全球开发者社区中引发热潮。

除DeepSeek之外,阿里的通义千问(Qwen)和月之暗面的Kimi等国产大模型也已陆续开源或开放模型权重,它们共同在探索一条兼具技术深度与生态广度的新型开源发展道路。

值得深入关注的是,开源对中国而言远不止是一种技术选型,更可能是一项系统性的国家战略。

一方面,由于外部闭源模型难以大规模进入中国市场,本土开源模型天然获得了广阔而丰富的应用试验田。企业端(B端)客户可能更倾向于采用开源方案,因其具备可深度微调、代码可审计、高度可定制化等优势,恰好契合企业对数据安全与技术自主可控的迫切需求。

另一方面,开源模式也充分激活了中国庞大的工程师红利。在高端算力资源存在现实约束的背景下,产业界可以将有限的资源集中投入到少数几个优质开源模型(如DeepSeek、Qwen)上,实现算力、数据与人才的高效协同与优化配置。

不同于闭源模型高度依赖少数顶尖核心团队,开源生态允许高校、中小型企业乃至个人开发者在不同参数规模的模型上进行算法优化与细分应用场景的创新。这种“众人拾柴火焰高”的协同创新机制,本质上是一种类似开放科学的研发范式——技术细节透明、成果快速传播、社区互相激励,从而形成强大的正向增强循环。

然而,开源大模型的蓬勃发展之路并非一片坦途,其商业模式天生面临挑战:盈利周期较长,在中短期内难以形成规模化的稳定收入,高度依赖持续的大量资金投入与广泛的生态协同支持。

一种目前看来较为合理的商业方案或许是:开源大模型厂商在开放模型权重和源代码的同时,也在云端提供基于Token消耗的模型调用服务——实现“开源与商业服务并行”,以期“一鱼两吃”。当前,Qwen和DeepSeek均已同时提供云端API服务。但这一模式也面临着来自大型云服务商的激烈竞争、利润空间被压缩、运营成本攀升等多重压力。

四、端侧模型崛起:云之外的模型路径

2025年,“端侧设备推理”成为模型落地的重要新兴战场。端侧推理并非简单的“应用层功能新增”,而是模型形态向分层化、分布式演进的结果。在云端训练成本日益昂贵、推理成本并未显著下降、电力与数据中心扩容面临瓶颈的背景下,一部分推理任务正逐步向用户终端设备迁移。

苹果的Apple Intelligence、Google的Gemini Nano,以及国内多家公司推出的小参数模型,使得端侧模型初步具备了规模化落地的技术条件。

端侧模型通常参数量在数亿至数百亿之间,能够实现极低延迟的实时响应,其在隐私保护方面具备先天优势,且本地运行成本几乎可以忽略。对整个模型体系而言,这意味着从追求“大一统巨型模型”转向构建“云-端协同”的多层次智能结构:云端负责处理复杂的逻辑推理和跨任务协同,端侧则专注于即时性任务处理和近场环境感知。

家庭与办公场景正成为端侧模型落地的主要载体,安防摄像头、家用服务机器人、智能家电控制模块、桌面智能助手等都开始依赖本地推理来完成视觉理解、设备联动和基础任务执行;云端仅在需要进行深度分析或复杂计算时介入。对于模型厂商和应用开发者而言,端侧AI不仅是部署方式的变革,更是一次关乎未来入口的新竞争——智能正在从集中的云端向离散的本地环境回流。

/ 02 /大模型的关键技术演进:多模态、推理、上下文记忆及智能体能力

近年来,大模型的发展已从单一的文本理解与生成能力,迈向更复杂、更综合的智能形态。当前,四大技术趋势正在重塑行业格局:原生多模态融合、深度推理能力、超长上下文窗口与记忆机制,以及智能体能力(Agentic AI)。这些进展不仅大幅提升了模型的底层能力,更在重新定义人机交互的可能性边界。

一、多模态:从“文本为中心”走向“原生融合”

过去,多模态系统通常以文本作为中介桥梁,例如通过CLIP等模型将图像、音频等信息映射到统一的文本语义空间,再进行后续处理。这种方式虽然有效,但本质上仍是以文本为核心,其他模态处于“被翻译”的从属地位。

如今,前沿大模型正转向真正的原生多模态架构。所谓“原生”,是指模型在底层设计之初就将图像、语音、文本乃至视频等多种模态嵌入同一个共享的、连续的向量表示空间,从而使不同模态间能够实现自然对齐与无缝切换,无需经过文本中转,以实现更高效、更一致的理解与内容生成。

多模态生成模型也正进入一个快速发展的新阶段,从早期的实验探索迈向以实际应用为导向的工程化落地。例如,Sora 2在视频与音频的联合生成上实现了物理规律逼真性、精准镜头语言控制、音画同步等突破;Nano Banana Pro则在图像生成与编辑领域取得了显著进步,支持多图融合、4K超高分辨率输出、场景逻辑一致性保持与复杂多语言文本渲染。

二、推理能力:从“回答问题”到“展示思考过程”

如果说多模态拓展了模型的感知边界,那么深度推理能力则标志着其认知层次的实质性跃升。2025年,强大的“推理能力”已成为顶尖大模型的核心标配。

过去,大语言模型主要专注于根据给定的上下文语境预测并生成连贯的文字;如今,这一范式正在发生根本性改变。

一方面,在模型训练阶段,算法不再仅仅学习“下一个词是什么”,而是开始学习“如何进行一步步的逻辑思考”——借助思维链(Chain-of-Thought)提示、结构化推理数据训练、基于人类反馈的强化学习微调等技术,使模型学会拆解复杂问题,进行逐步推演。

另一方面,在模型推理(应用)阶段,先进模型越来越多地采用“延长思考时间”或“动态调用额外计算资源”等机制(即测试时计算或推理时扩展)来提升最终判断的准确性与深度。

因此,如今最先进的模型不仅致力于“给出正确答案”,也追求“清晰展示其思考路径”,从而显著提升了其在复杂任务(如数学证明、代码生成、科学推理)中的表现,并增强了决策过程的透明度和可解释性。

三、上下文与记忆:让AI真正“认识你”

除了感知与推理能力的升级,另一个“改变游戏规则”的关键进展是超长上下文窗口与外部记忆机制的引入与结合。

传统的AI对话往往是孤立且短暂的:用户提问,模型回答,会话结束后一切便被“遗忘”。新一代模型通过支持超长上下文(例如百万级Token)并结合外部的记忆存储与高效检索机制,能够在跨越多次的长期交互中,持续追踪用户的身份信息、项目历史、目标演变过程与个人偏好。这意味着AI正逐渐摆脱“没有记忆的工具”这一角色,进化成为具备长期持续认知能力的数字伙伴。

这种能力对于提升生产力工具、实现深度个性化服务以及处理复杂协作场景至关重要。例如,在软件开发中,AI可以记住整个项目的架构设计与团队编码风格;在个人健康管理中,它能跟踪并分析用户长期的生理指标与症状变化趋势。

四、智能体能力:从“生成响应”到“自主执行”

除了多模态感知、高级推理与长期记忆机制,2025年大模型发展的另一个关键方向是“智能体能力”的强化。所谓“智能体能力”,是指模型不仅能够理解和生成内容,还能够主动进行任务规划、自主调用外部工具(API)、执行多步骤的复杂任务,并在一定程度上进行自主决策、与数字或物理环境进行互动。

在这种新范式下,AI的角色不再局限于“你问,我答”的被动助手,而是升级为“你设定目标,我来协调完成”的主动执行伙伴。例如,面对一个复杂的商业分析任务,模型可以自动拆解目标,选择合适的工具(如数据库查询、网络搜索或特定软件API)、协调多个子任务的执行顺序、监控中间结果,并根据实时反馈动态调整策略,甚至与其他智能体或人类协同工作。

智能体能力拥有广泛的应用潜力:在生产力自动化领域,可自动生成综合性分析报告、跨平台调度复杂任务流程;在企业流程优化中,支持跨部门协作流程的自动编排与监控执行;在个性化服务方面,协助用户长期管理大型项目、制订并跟踪个性化学习计划等持续性目标。

如果将智能体能力与多模态感知、逻辑推理和长期记忆等核心技术深度融合,大模型有望构建起“感知环境—理解意图—记忆历史—规划行动”的完整智能闭环。

然而,必须认识到,当前的智能体能力仍处于发展的早期阶段。不少应用尚停留在试点或概念验证层面,其大规模、高可靠的商业化落地仍面临多重挑战,包括工具调用的稳定性、复杂任务流程的可靠编排、以及在安全性、责任归属和系统鲁棒性等方面的制度性与技术性难题。

/ 03 /大模型演进的新方向:训练范式转移,探索新架构

随着大模型技术进入深水区,整个行业正经历一系列结构性转变:从训练重心的迁移,到使用成本与性能的复杂博弈,再到底层模型架构的多元化尝试。这些变化不仅反映了技术演进的内在逻辑,也预示着未来AI发展路径将拥有更多可能性。

一、训练-推理范式转移:从“预训练主导”到“后训练驱动”与“运行时计算”

当前,大语言模型正在经历一场深刻的范式转变:从过去以超大规模预训练为核心的单一能力增长路径,逐步演进为融合后训练精细调优与运行时计算增强的多阶段、协同式能力提升体系。

正如英伟达CEO黄仁勋所指出的,先进AI模型的综合能力提升正遵循三条相互补充的“规模法则”:

1、预训练规模法则(Pre-training Scaling Law)

通过在海量文本数据上训练超大参数量的模型,投入巨大的计算资源,构建起强大的基础语言理解与生成能力。这是模型泛化能力的“基石”,决定了其知识广度与初始性能上限。

2、后训练规模法则(Post-training Scaling Law)

在预训练奠定的基础之上,借助监督微调(SFT)、基于人类反馈的强化学习(RLHF)、推理对齐等技术,为模型注入任务导向的行为模式、价值观对齐与复杂问题解决能力。这一阶段使模型从“能够生成通顺文本”迈向“学会深度思考、懂得协同合作、遵守既定规则”。

3、测试时规模法则(Test-time / Inference-time Scaling Law)

在模型推理或实际部署阶段,通过动态增加计算投入,例如启用思维链、进行多步推理、执行内部搜索、启动自我验证或灵活调用外部工具等机制,让模型“花费更多时间进行思考”,从而显著提升其回答的准确性、逻辑的严谨性与任务的完成度。

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第4张

二、模型架构的多元探索:Transformer仍是主流,但边界正在拓展

在底层模型架构层面,尽管Transformer依然是绝对的主流和基石,但在过去一年中,全球的研究者们也在积极探索多种潜在的替代或混合架构方案,例如:

线性注意力模型(Linear Attention):通过简化注意力机制的计算复杂度,在保持模型性能的同时显著提升推理速度,已成为面向轻量化部署的重要研究方向。

混合注意力机制(Hybrids Attention):尝试将传统注意力机制与其他高效计算模块(如状态空间模型SSM、卷积神经网络等)相结合,旨在长序列建模能力与计算效率之间取得更优的平衡。

文本扩散模型(Text Diffusion Models):借鉴图像生成领域扩散模型的成功思路,将其应用于语言生成任务。与Transformer基于自回归的逐词预测不同,扩散模型理论上可以并行预测文本的多个位置,从而具备更高的训练与推理吞吐效率。2025年,苹果公司与俄亥俄州立大学的研究结果显示,在小参数规模下,其生成速度优势明显。不过,该架构尚未被主流头部大模型广泛采用,仍处于技术探索与验证阶段。

此外,一些前沿研究项目甚至尝试将“世界模型”的理念融入架构设计,例如通过多模态感知与动态环境模拟来构建对物理世界的内部表征。

/ 04 /物理AI和世界模型:智能的新范式

过去几年,人工智能的发展重心主要集中在语言模型与数字内容生成上。AI学会了“阅读”、“写作”,甚至能“根据描述生成图像或视频”。然而,随着智能驾驶、具身机器人等技术的快速演进,AI正面临一个更宏大且复杂的挑战:它不仅要处理文本和图像信息,还必须在现实物理世界中“看见”、“理解”并“安全行动”。这意味着AI需要真正进入并适应物理世界的运行规律。

在此背景下,世界模型(World Model)、物理AI(Physical AI)这些新范式逐渐成为行业关注的焦点。所谓物理AI,是指那些能够感知现实环境、理解基本物理规律、并据此采取有效且安全行动的智能系统。杨立昆(Yann LeCun)、戴密斯·哈萨比斯(Demis Hassabis)等行业领军人物曾多次表示:“未来真正具有颠覆性价值的AI,将是那些能够深刻理解并遵守物理世界规律的系统。”

一、什么是世界模型?为什么它是物理 AI 的核心?

世界模型可以被理解为AI在“其内部构建的一个对真实世界的动态微型模拟”。它不仅记录当前通过传感器(如摄像头、雷达)获取的实时信息(如图像、声音、物体位置等),还能在此基础上模拟和预测未来可能的状态变化:如果执行某个特定动作,环境将如何演变?

换言之,AI不再只是简单地从“输入A”映射到“输出B”,而是具备了“内部模拟—预演结果—规划路径”的高级认知能力。例如,AI可以先在虚拟环境中进行尝试:“如果我向左推这把椅子,它会如何移动并碰到墙壁?”“如果自动驾驶车辆在湿滑路面急转弯,是否会导致失控?”这种“脑内预演”机制将极大提升智能系统在陌生环境中的泛化能力、操作安全性以及长期任务规划水平。

这一认知机制对人类而言早已存在。正如下图这幅漫画所生动描绘的,人类在骑自行车时并非仅依赖眼前的视觉画面做出瞬时决策,更要依靠大脑中持续更新和运行的“内在世界模型”来预测转弯角度、障碍物距离以及潜在碰撞风险,从而避免在真正摔倒后才意识到危险。

二、VLA与世界模型:技术与应用场景的差异

当前物理AI的核心技术路线主要围绕两大方向展开:一是以VLA(视觉-语言-动作模型)为代表的端到端感知-行动模型,二是以世界模型为核心的环境动态建模与预测体系。

VLA是物理AI的一个重要分支,代表了传统多模态大模型向具体行动执行能力的延伸。它将视觉输入、语言指令与动作输出融合在一个统一的框架内,构建“多模态输入→动作输出”的端到端控制系统,特别适用于“看到场景+理解指令→立即执行动作”的即时任务场景。例如,仓储机器人根据屏幕图文提示完成特定货物的抓取或搬运操作。这类场景对模型的快速语义理解能力和跨场景泛化能力提出了较高要求。

相比之下,世界模型更强调对环境的内部动态建模与长时序预测能力。它不仅关注当前的感知数据,更致力于构建一个包含环境隐含状态、物体间动力学规律和因果关系的内部表示体系,使得智能体能在其“脑海”中模拟多种可能的未来情境,并评估不同动作序列的潜在后果,从而选择最优策略。

当任务环境高度复杂、存在大量不确定性、需要进行多步骤规划或长期适应时,基于世界模型的系统可能会展现出更强的灵活性、鲁棒性与决策智能。但当前世界模型的技术路线尚未完全成熟,仍需解决仿真与现实间的差异(模拟到真实的迁移问题)、物理规律的一致性保持以及超长期规划稳定性等诸多挑战。

在应用层面,VLA更适合结构相对清晰、任务定义明确、要求快速响应的短期操作场景(如仓储物流分拣、高级驾驶辅助系统),而世界模型则更适用于需要深度因果推理、动态环境适应和长期目标导向的复杂任务(如完全自主导航、多步骤工业机器人操作、复杂人机协作等)。

简而言之,VLA模式更接近于“看到就做”,适合稳定、结构化的即时任务;世界模型模式则更偏向于“先深思熟虑再行动”,适合复杂、多变、需要预测与长远规划的场景。

当然,最新的研究进展(例如World VLA等融合架构)表明,VLA与世界模型并非两条完全互斥的技术路径,而是可以有机融合为一个更强大的统一智能系统。这使得AI或智能体既能够通过视觉与语言的直接理解来生成即时动作(VLA模式),也可以借助世界模型来预测环境状态与未来变化,从而实现“感知—规划—执行”的一体化智能闭环。

三、2025 年:世界模型的研究进展与应用探索

2025年,世界模型领域迎来了多项具有标志性的重要进展。

8月,DeepMind发布了Genie3,展示了仅通过文本描述就能生成可交互3D虚拟环境的能力,被业界视为迈向“交互式世界生成”的关键性实验。

9月,OpenAI推出Sora2,进一步强化了“文本→高保真视频/复杂物理场景”的生成能力。尽管它并非一个完整意义上的世界模型,但其已初步具备对物体运动、场景动态与物理状态的联合建模能力,可被视为向构建世界模型迈出的重要一步。

11月,由知名AI学者李飞飞参与创立的World Labs发布了Marble项目,支持从文本、单张图像、视频片段乃至粗略的3D布局草图生成高保真、可实时编辑的3D虚拟世界,被业界称为构建“空间智能数字基础设施”的一次前沿探索。

此外,NVIDIA的Isaac Sim作为融合物理AI仿真、高保真渲染与世界模型训练的关键平台,正日益获得工业界与研发机构的广泛关注。它提供极为逼真的物理引擎、多样化传感器模拟与大规模合成数据生成能力,为机器人算法训练、自动驾驶系统验证以及现实部署前的全面测试提供了强大的基础支撑。

这些重要进展或许能够表明,世界模型的研究与应用正从初期的“视觉/3D 世界构建”起步,有望逐步迈向“高保真仿真—物理规律建模—实际软硬件系统落地”的产业化新阶段。

四、物理 AI 与世界模型的应用前景

展望未来,世界模型技术将朝着三大核心方向持续演进:一是高度的可交互性,支持用户或智能体与虚拟世界进行动态、真实的互动;二是强大的可规划性,具备面向长期复杂目标的因果推理与自主行动能力;三是严格的物理一致性,在环境生成与状态预测中严格遵循现实世界的物理定律。

物理AI有望成为下一代机器人、高级别自动驾驶、下一代游戏与模拟引擎、工业数字孪生等领域的核心新型基础设施。随着多模态模型训练效率的持续提升、轻量化推理技术的日益成熟,世界模型或许将逐步走出高端实验室,在更多产业场景中实现规模化的落地应用。

/ 05 /产业链与基础设施:从“单一赢家”到生态协同

一、基础设施:从“单一赢家”向“多极共存”的转变较为缓慢

在算力基础设施层面,英伟达凭借其GPU产品建立的领先地位依然十分稳固,其市值一度突破5万亿美元,成为AI时代最核心的硬件算力引擎。业界长期期待与预测的从“单一赢家”向“多极共存”的市场格局转变,实际进展相对缓慢。

尽管多家全球科技巨头与新兴芯片厂商正积极布局替代方案,这包括Google自研的TPU、AMD的Instinct MI系列加速芯片、华为的昇腾AI处理器,以及众多创业公司推出的各类专用AI加速芯片。目前,Google的TPU已在其云服务Google Cloud与内部AI基础设施中实现规模化部署;AMD的MI300系列也已被部分大型数据中心和云服务商所采用。

但截至目前,全球绝大多数商业AI服务与模型训练仍深度依赖英伟达主导的GPU生态系统。虽然市场上已经存在可用的替代方案,但它们尚未在全球范围内形成完善、易用且性能均衡的基础设施软件生态与开发者社区。换言之,算力市场的多元化生态虽已萌芽,但距离成熟与平衡尚远。

二、产业链的资金循环:多方“输血”,构建新型协同生态

在更宏观的AI产业生态层面,一个值得关注的显著现象是:整个AI行业正从过去高度依赖少数几家云服务巨头的单向支持,逐渐转向由多方参与者共同构成的“循环式资金与资源支持”创新模式。

过去,整个AI生态的资金与算力主要由微软、谷歌、亚马逊等头部云服务商提供支撑。但如今,越来越多的产业参与者开始反向“输血”,它们不仅接受生态资源,也主动为整个生态注入新的动力。例如,英伟达通过其风险投资部门、广泛的战略合作以及开发者生态扶持计划,已成为推动行业创新的重要资本与算力输出方。

这种相互支持、彼此背书、资源交织的复杂关系,正在形成一个动态且稳固的资金、技术与商业资源的循环网络。

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第5张

资料来源:高盛报告《Top of Mind: AI: in a bubble?》

引人注目的是,这一生态目前呈现出清晰的“双中心”辐射结构:英伟达代表硬件与算力端,OpenAI代表软件、模型与算法端,这两家领军企业某种程度上扮演了AI时代的“Intel+Microsoft”组合角色,共同构成了驱动整个产业运转的“软硬双核心”。围绕这两大核心,众多企业通过战略投资、技术合作、大规模采购与生态共建等方式,持续为整个AI产业注入创新活力。

然而,如此大规模且持续的高强度投入,也引发了业界关于“AI是否存在泡沫”的广泛讨论。根据高盛发布的专题报告,截至2025年8月,全球AI应用的年度经常性收入(ARR)总和约为300亿美元。而据红杉资本此前的估算,若计入全产业链的所有成本(包括芯片研发制造、数据中心建设、顶尖人才薪酬与巨额研发投入),整个行业需要达到约6000亿美元的年收入规模才能实现合理的投资回报。这意味着当前AI行业整体仍存在高达数千亿美元的年度亏损缺口。

/ 06 /应用层的边界与机遇:大模型公司vsAI应用创业

随着大模型基础能力的持续飞跃,一个无法回避的核心问题是:如果绝大部分智能都源自底层模型的进步,那么基于其上的AI应用公司的“可持续竞争护城河”究竟是什么?这不仅关乎每一位AI创业者的方向选择,也深刻影响着未来整个AI生态的权力结构与价值分配。

一、大模型公司的战略定位:从“超级助手”到“入口掌控者”

以OpenAI为代表的大模型公司正通过双重战略定位来构建其长期护城河。一方面,它致力于打造面向大众的“超级智能助手”,覆盖日常办公、学习、信息检索、内容创作等高频任务,强调其通用性与易用性;另一方面,它也在塑造“T形顶尖专家”的形象,在强大的通用能力之上,提供编程、学术研究、复杂分析等高阶专业技能,展现出专业级的问题解决智能。

然而,OpenAI的宏大野心远不止于此。为了将这种强大的模型能力真正转化为稳固的用户黏性与可观的商业价值,它不仅推出了ChatGPT作为核心的用户交互中枢,还陆续布局了完善的开发者工具套件、深度知识获取产品(如DeepResearch)、新一代AI搜索引擎,甚至开始自建算力基础设施。

OpenAI采取这一系列举措,不仅是为了直接连接最终用户、实现快速商业化变现,更是为了构建一个能够反哺其核心模型持续迭代所需的“数据飞轮”与产品闭环。某种程度上,这类似于移动互联网时代的“安卓模式”:操作系统厂商通过内置核心应用与服务,主导整个应用生态的演进方向。因此,顶尖大模型公司并非仅仅满足于扮演“底层技术供应商”的角色,而是希望成为下一代人机交互的“核心入口掌控者”。

二、AI应用创业者的生存空间:边界之外,纵深之中

面对大模型公司如此强势的纵向扩张,独立的AI应用创业公司是否还有生存与发展的空间?答案是肯定的,但前提是必须精准地找到属于自己的独特生态位。

大模型公司几乎不可能也无必要包揽所有垂直领域的应用。一方面,为每一个细分行业场景深度定制和优化模型,将带来难以承受的工程开发与长期维护成本;另一方面,许多关键行业(如医疗健康、金融服务、法律合规)对数据隐私、监管合规性和本地化部署有着极其严格的要求,通用的云端大模型难以完全满足。此外,细分市场的快速变化与个性化迭代需求,往往也超出通用平台的标准响应速度。

正因如此,真正的创业机遇恰恰存在于大模型公司能力边界之外、那些需要极深业务理解、复杂工作流整合或强用户关系沉淀的垂直纵深领域。在这些领域,应用公司不仅能有效避开与巨头的正面竞争,更能凭借对特定场景的深刻洞察、深厚的行业知识以及定制化服务能力,构建起独特且坚固的价值壁垒。

三、创业策略:抢跑、适配与轻架构

那么,创业者该如何在这一复杂的竞争格局中成功突围?行业实践表明,成功的路径往往包含三个关键策略。

首先,“技术抢跑”至关重要。由于大模型的能力存在“代际更新”周期,创业者或许可以在某项关键能力(如复杂推理、多模态理解)尚未被主流大模型完美支持时,通过巧妙的工程化手段(如结合规则引擎、针对性微调与专用工具链)在有限的特定场景中率先做到“可用甚至好用”。一旦底层模型的该项能力成熟普及,那些已经积累了早期用户基础、形成了产品认知并打磨了工作流的企业,便有可能迅速放大先发优势,形成强大的市场壁垒。

其次,搭建足够灵活、松耦合的“技术脚手架”。应用的整体架构应尽量采用轻量化、模块化的设计,避免过度依赖某一特定模型版本的内部实现细节。这样才能在底层模型持续快速升级迭代的过程中,保持应用的兼容性与可维护性,避免因底层技术的变动而被迫进行大规模、高成本的重构。

最后,当大模型提供的核心基础能力日趋同质化,应用之间的终极竞争护城河将更有机会转向用户侧和数据侧。谁能积累更丰富、更高质量的用户交互历史,构建更精准的个体与群体偏好画像,培养更稳定的用户使用习惯与社区文化,谁就更有可能在长期的竞争中胜出。换句话说,未来的市场胜负不仅取决于“接入了多强大的模型”,更取决于“是否真正深度理解并服务好了自己的用户”。

四、头部应用生态:中国企业出海亮眼,但商业化仍在早期

当前,全球AI应用生态已初具规模,并涌现出多个具有代表性的热门品类:大模型原生效率助手(如ChatGPT)、情感陪伴与社交型应用(如Character.ai)、AI编程开发工具(如Cursor、Lovable),以及新一代AI浏览器与智能搜索(如夸克、Perplexity)。

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第6张

其中,中国创业团队在全球市场的表现尤为亮眼。以智能搜索应用“夸克”为例,根据美国顶级风投机构a16z今年8月发布的统计数据,其全球网页端的月访问量已跻身全球AI应用前十,位列第九;在移动端(仅统计iOS手机客户端)则位列第47,若计入用户基数庞大的安卓手机客户端数据,其实际排名有望进一步提升。类似地,由DeepSeek、字节跳动、阿里巴巴等大厂孵化或投资的AI应用也在海外市场实现了快速的用户渗透与增长。

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第7张

然而,亮眼的用户增长与访问量数据,并不等同于成熟且规模化的商业收入。根据高盛同一份报告的数据,截至2025年8月,中国AI应用公司在全球市场中获得的总年化收入大约为15亿美元,其中超过80%的收入来自海外市场。

对于中国的AI软件创业公司而言,这也反映出一个略显尴尬的现实:在国内市场实现规模化软件变现仍然道路艰难。“出海”寻求全球市场机遇或许能暂时缓解这一困境,但真正的长远出路,还是要打通可持续的ToB(企业服务)、ToC(消费者订阅)或ToP(平台分成)商业模式,真正把应用价值落地,让企业客户或个人用户愿意为其创造的真实价值持续买单。

/ 07 /AI应用的进化路径:从Copilot到智能体,以及落地的真实挑战

AI应用正在沿着一条清晰的路径向更高阶的智能化阶段演进:从被动响应的对话工具,逐步迈向具备明确目标感与高度自主性的智能体形态。

一、进化路径:从对话→Copilot→有限Agent→自主Agent

AI应用的发展轨迹,大致可以被划分为四个渐进阶段。

1、基础对话阶段(Chatbot)AI应用以简单的问答机器人形式存在,用户输入文本指令,模型生成文本回应,交互是回合制且孤立的。

2、智能副驾阶段(Copilot):AI升级为人类工作流中的高效辅助者,在人类用户的明确主导与监督下,协助完成代码补全、文档润色、数据分析等特定任务,典型代表包括GitHub Copilot、Cursor代码编辑器等。

3、有限智能体阶段(Bounded Agent):AI开始具备初步的自主性与目标感,能够在预设的规则框架和安全边界内,自主拆解并执行包含多步骤的复杂任务,但整个过程仍需人类进行关键节点的监督与最终确认。

4、自主智能体阶段(Autonomous Agent):这是未来的发展方向,即能够完全自主运行的智能体。它可以主动感知环境变化,自主设定或理解高层目标,进行长远规划并执行系列行动,灵活调用各类工具,并能根据结果进行自我反思与优化——其行为模式更像一个拥有“生命感”与“目的性”的数字实体。

如今,市场上不少前沿的AI应用都在向第三阶段,即有限智能体方向积极探索。或许当前智能体的能力尚不成熟且不稳定,但其核心特征已逐渐清晰:不再依赖人类用户一步步的详细指令指导,而是能够主动理解用户的模糊意图、自主拆解复杂任务、调用外部工具(如体现为“Computer Use”的电脑操作能力),并形成“规划—执行—监控—反馈”的完整任务闭环。

二、开发范式的变革:“上下文工程”成为核心,得上下文者得天下

伴随AI应用形态的不断升级,其背后的软件开发方式也在发生根本性的范式转变。

过去,软件1.0时代完全依靠手工编写每一行代码;软件2.0时代开始利用数据训练神经网络模型;而今天,构建AI原生应用的核心工作已转向“上下文工程”,即动态地、智能化地编排提示词(Prompt)、长期与短期记忆、应用内部状态以及外部工具调用,从而为底层大模型构建一个能够使其高效、准确完成复杂任务的最佳信息环境。

2025年人工智能产业全景复盘:技术破局、生态重构与应用长征 大模型开源战略 物理AI与智能体 端侧推理部署 AI应用商业化 第8张

正如AI研究者安德鲁·麦克洛斯基(Andrew McCloskey)所深刻指出的,编写现代AI应用的本质已不再是传统意义上的逻辑编程,而是设计一个精妙的动态信息系统:在合适的时机,以最合适的结构化格式,向模型提供最准确、最相关的上下文信息、长期/短期记忆、实时检索内容及可用工具列表。

在AI的深度加持下,开发者虽然仍会编写部分胶水代码,但主要工作已转变为“与模型进行多轮、策略性的对话”,不断迭代和调整提示策略、信息组织方式和决策流程。换言之,未来的软件工程师,将不仅是逻辑架构师,更是“AI智能协作的导演”,其核心能力在于如何有效引导与激发模型的智能,而非仅仅机械地实现功能逻辑。

一句话总结:“上下文工程”就是大模型时代所有软件应用的“隐形核心操作系统”!

三、落地困境:95%的企业未获回报,“生成式AI鸿沟”真实存在

尽管技术演进迅猛,AI应用在企业端的商业化落地却面临着严峻而真实的挑战。

MIT Nanda项目团队近期发布的一项深入研究显示:尽管全球各类企业在生成式AI技术上已累计投入高达300亿至400亿美元,但令人惊讶的是,高达95%的组织未能从中获得可明确衡量、有实质意义的商业回报,仅有约5%的试点项目成功创造了可观的商业价值。这一巨大的投入产出落差现象被业界称为“生成式AI鸿沟”。

为何会出现如此巨大的价值实现落差?

首要原因在于应用场景的错配。当前主流的、易于上手的AI工具(如各类Copilot、智能客服助手)主要聚焦于提升个体员工的生产力,这类场景容错率相对较高,个人体验提升见效快,因此被众多企业率先试用。但这类工具往往难以直接转化为企业层面的整体盈利能力提升,因为它们通常并未深度嵌入核心业务流程,缺乏对端到端企业运营流程的支撑与改造能力。一旦涉及跨多系统数据集成、复杂决策闭环或对可靠性要求极高的关键流程,当前AI工具的“脆弱性”与“不可预测性”便会立刻显现。

其次,在于难以捕捉和编码企业运营中的“隐性知识”。在企业实际运营中,大量决策依赖于未被正式文档化的专家经验、非成文的协作规则与特定的组织“上下文”,当前的大模型无法有效学习这些深藏于组织内部的“隐性知识”,导致其输出结果常常与实际业务需求严重脱节。

四、AI应用的营收压力

当前,国内AI应用创业面临的一个显著结构性挑战,在于缺乏类似智能手机这样的新一代革命性硬件终端作为入口。由于没有全新的硬件生态,AI应用只能在用户现有的手机或电脑操作系统与应用商店生态中参与竞争。这样的直接后果是,AI应用本质上要与几乎所有类型的成熟App(从社交、游戏到工具软件)争夺用户有限的注意力与使用时长。

与此同时,中国市场的互联网与AI渗透率已处于全球高位,用户习惯成熟但竞争也异常激烈,这进一步加剧了AI应用创业公司的生存与增长压力。

AI应用公司面临的另一个现实财务情况是,尽管单位Token的云端推理成本正在快速下降,但由于为了实现复杂功能,大部分应用需要触发模型的链式推理(CoT),导致单次任务调用的总Token数量大幅攀升,公司的整体AI支出可能不降反升。这种“成本下降与总支出上升”的悖论,已对下游众多AI应用公司的现金流构成真实压力。例如,像Cursor这样的明星AI编程工具,就曾公开面临因用户高频率、长链式使用带来的高昂推理负载与运营成本挑战。这也促使整个行业重新深入思考:如何在提供强大智能功能与维持健康的商业成本结构之间取得可持续的平衡?

传统移动互联网App所高度依赖的在线广告模式,在AI应用上也遭遇了新的瓶颈。

过去,互联网产品的蓬勃发展很大程度上依靠“羊毛出在猪身上”的平台经济逻辑:通过提供免费服务吸引海量用户,再通过广告或增值服务变现。例如,阿里通过为商家提供广告展示位获得主要收入,腾讯虽然游戏和社交增值服务占比较大,但广告收入也贡献显著。

但如今,这一经典模式对许多AI原生应用产品来说挑战重重。一方面,App应用需要不断投入高昂成本进行拉新和促活,但移动互联网用户红利见顶,获客成本越来越高;另一方面,广告的变现效率(eCPM,千次展示收入)普遍不高。在中国市场,除抖音、淘宝/天猫、微信等超级头部App外,大部分中长尾软件的eCPM仅维持在10~20元人民币,甚至更低。若用户高频、深度地使用AI功能,每次服务所消耗的云计算与模型推理成本(即token成本)可能远超单次广告展示带来的微薄收益,这个商业模式很可能根本算不过来账。

因此,在当前的发展阶段,AI创业者可能需要优先思考并探索广告模式之外的其他可持续商业收入模式。除此之外,对于中国的AI创业者来说,也需要积极拓展其他增长路径,例如转向付费意愿更强的海外市场、或探索与硬件产品结合打造软硬一体的闭环用户体验等。

五、软硬结合:AI创业的新路径

当前,中国纯AI软件创业面临一些共性挑战,例如国内用户为纯软件付费的意愿相对较弱、纯线上模式变现困难;若选择转向海外市场,则需直面高昂的本地化获客成本与异常激烈的国际竞争。与此同时,尽管中国拥有全球最成熟、最高效的消费电子硬件产业链,但原创性产品设计不足,“内卷式”的同质化价格竞争较为普遍。

在这样的宏观背景下,“软硬结合”或许成为一条值得深入探索的创新路径。

以峰瑞资本早期投资的BodyPark公司为例,其最初从纯软件端切入,在新冠疫情期间推出基于AI视觉的动作捕捉技术,用于辅助健身教练远程实时指导多名学员进行居家训练。在此过程中,团队逐步明确了产品定位、构建起初步的商业模式与运营方法,积累了核心的AI算法能力,同时也锻炼了跨职能的产品与市场团队。但是,正如前文所述,纯软件的AI应用在中国面临较大的商业化压力。

后来,BodyPark选择与一家拥有硬件基因的创业公司合并,在原有软件技术的基础上引入了硬件设计与供应链能力,并最终推出软硬深度融合的产品“ATOM”智能健身设备,近期在海外众筹平台Kickstarter上的表现十分亮眼。创始人阿立总结道:“BodyPark过去几年积累的核心能力,比如高精度AI动捕算法、体系化的健身课程内容、智能体(Agent)辅导架构、真人教练SaaS授课工具、稳定的教练供给体系等等,正是ATOM这款硬件产品能够快速、顺利落地并受到欢迎的底气所在。”

我们从BodyPark的发展历程中,可以得到关于AI应用创业的三点重要观察:

从纯软件产品切入,首先夯实核心技术、验证商业模式与积累用户洞察,避免过早陷入硬件领域常见的高固定成本投入与低技术壁垒竞争;

在软件能力、数据积累与市场认知达到一个临界点后,再适时引入合适的硬件载体,实现“软件定义硬件、硬件放大软件价值”的协同倍增效应;

通过硬件产品提升用户体验的完整性与产品感知价值,拓展服务边界与用户生命周期价值,从而构筑更高的综合竞争壁垒。

值得一提的是,成功的软硬结合并非简单的功能叠加,而是以深厚的软件与AI算法能力为创新内核,以精心设计的硬件作为体验放大器与价值交付载体,这或许是中国AI创业者能够走出的一条特色发展新路径。

另一个典型的软硬结合热点赛道是泛AIoT智能硬件。中国拥有成熟且高效的消费电子制造产业链,以及相对完善的芯片/传感器产业配套与供应链基础,这为智能硬件创业提供了天然的产业优势。再加上近年来端侧AI算法的快速进步、设备本地算力(NPU等)的持续提升与成本的不断下降,使得有强AI赋能的“软硬一体”智能产品从可能变为可行,并具备了市场竞争力。

/ 08 /展望:2026,AI的下一步

一、技术方向:在线的持续学习

当前大模型存在一个根本性的局限:当某一个大型模型完成训练后,其数十亿甚至万亿的参数就会被“冻结”,无法在部署后根据新数据与环境反馈进行自主、持续的知识更新与性能优化。尽管通过引入超长上下文窗口、外部知识库调用和精妙的提示工程(即“上下文工程”),模型能在单次交互中“临时学习”新信息。但这种机制本质上仍是静态和一次性的,所有相关信息必须在每次对话中重新注入上下文,既效率低下又受限于上下文长度。

对此,强化学习先驱、图灵奖得主理查德·萨顿(Richard Sutton)曾提出一种前瞻性观点:“Welcome to the Era of Experience.”(欢迎来到经验驱动的时代)。他主张,真正的通用智能必然来源于与环境的持续、实时互动与经验积累。

这种模式类似于人类或高等动物所展现的“终身学习”能力,即大模型或智能体能够在线持续地学习新知识、感知行动反馈、并动态调整自身的行为策略甚至内部表征。但目前,这种安全、高效且稳定的自主学习模式尚缺乏成熟的算法框架与工程实践支持,我们期待2026年在算法层面会有新的突破性进展,从而推动模型的适应性与通用智能水平迈上新的台阶。

二、经济影响:AI能否打破“生产率悖论”?

回顾历史,前两次工业革命(蒸汽机与电力)都带来了全要素生产率的长期、显著跃升。相比之下,尽管计算机与互联网信息技术在过去几十年已无处不在,深度渗透各行各业,却似乎未能同步、显著地提升宏观生产率统计数据,这一令人困惑的现象被称为“索洛生产率悖论”。

为何会这样?其中一种主流解释是:传统信息技术主要优化了信息的存储、传递与检索效率,但并未直接替代人类最核心的认知性智力劳动与创造性工作。它连接了整个世界,但并未真正“解放”人类的生产力。

AI的出现可能正在从根本上改变这一局面。当大模型开始承担越来越多原本属于人类的智力密集型工作(比如编程、法律文书分析、科研文献综述),当具身机器人逐步接管重复、危险的体力任务(比如精密装配、高危环境勘探),人类或许将首次实现对智力与体力的双重系统性“解放”。这种根本性变革若能渗透至制造业、能源、材料科学、生物医药等实体经济关键领域,或许能够切实推动全球全要素生产率的又一次历史性提升。

当然,这一充满希望的进程也可能伴随严峻的社会经济挑战。当生产效率因AI而大幅提升,社会总财富(GDP)可能增长,但若大量劳动力被智能系统替代,就业结构、收入分配与社会保障体系将面临剧烈而深刻的调整。我们需要持续、审慎地关注并引导,确保AI技术的发展在提升效率的同时,不会过度加剧结构性失业与社会不平等。

三、投资逻辑:从“技术叙事”回归“商业基本面”

在过去的2023年与2024年,AI领域的风险投资与战略资金主要被三大方向所吸纳——大模型研发、算力芯片与基础设施、以及具身智能机器人。这一阶段,投资的核心逻辑更多基于宏大的“技术叙事”与先发优势,即“某项技术能否取得突破性进展”及“谁能在模型能力、芯片性能或机器人原型上抢得市场先机”。

然而,随着资本市场逐步走向理性、基金回报周期压力显现,以及AI行业整体迈进追求实际应用落地与商业价值的深水区,投资者的关注焦点正在发生显著转变。相比于早期单纯的“技术领先性叙事”,中后期的投资者也开始更加看重项目的“商业模式基本面”与长期生存能力:项目是否具备真实、可防御的竞争壁垒?是否有清晰且在经济上可持续的盈利模型?用户的切换成本是否足够高?业务是否具备明显的规模效应或网络效应?能否通过持续的数据积累、用户反馈与产品闭环,构建起不断增强的“数据飞轮”?

对于创业者而言,这意味着仅仅讲述“我们拥有最先进的模型架构”或“我们的技术全球领先”已经不够,你必须能够清晰地展示一个能够穿越底层模型快速迭代周期、在残酷的市场竞争中站稳脚跟的商业结构与执行路径,包括可标准化复制的产品化能力、可预见且多元化的收入来源,以及健康、稳定增长的用户体系与客户关系。简而言之,创业者的叙事需要从“我们能用技术做什么”坚实转向“我们如何创造用户价值并以此持续赚钱、实现增长”。

写在最后

纵观2025年的全球AI行业,我们看到的是技术加速迭代、产业格局剧烈重构、而成熟商业模式尚未完全定型的复杂多重图景叠加。

迈入2026年,行业最关键的变量将不再是“模型参数规模能否再扩大一个数量级”——单纯比拼模型体量与算力投入的时代或许已经接近尾声。接下来,真正影响AI未来十年走向的核心议题将包括:

AI能否实现安全、高效的在线持续学习,突破当前“冻结参数”模式带来的结构性能力限制;

AI能否真正可靠地进入并理解物理世界,成为具身智能、下一代机器人、全自动驾驶等领域不可或缺的新型基础设施;

AI应用开发者能否在善用大模型强大能力的同时,与底层模型保持适度的战略距离,在特定的垂直领域或用户体验层面构建起自己独有的壁垒,而非困于短期的成本压力与高昂的流量获客困境之中。

整体而言,人工智能是一条典型的“长坡厚雪”超级赛道。正如那句穿越无数技术周期的经典箴言所言:“人们总是倾向于高估一项新技术在短期(一两年)内带来的影响,而严重低估其在长期(十年以上)可能引发的根本性变革潜力。”

当前,中国的AI产业正在全球竞争格局中走出一条独特的发展路径:以开源大模型实现关键技术的战略突破,以创新应用出海打开广阔的国际市场空间。这条路充满机遇,也布满挑战,既需要产业各方的战略耐心,也需要坚守创新的长期定力。如果我们能够以自主研发的高性能大模型作为智能时代的核心源头活水,那么“AI赋能千行百业”——无论是AI原生软件、智能硬件、自动驾驶还是具身智能机器人——就不再只是一个遥远的远景,而是正在我们眼前徐徐展开的、激动人心的产业现实。