当前位置:首页 > 科技资讯 > 正文

火山引擎携手英特尔,云边端协同开启AI普惠新时代

当前,全球市场正经历着一场史无前例的算力需求大爆发。

尤其是在多模态技术日臻成熟、企业级复杂Agent应用不断深化的今天,众多企业已走在AI转型的前列。

然而,随着模型选项增多、算力需求持续攀升,如何精打细算经济成本,实现高吞吐与低延迟,并在稳定性、可靠性及兼容性方面做到精准把控,这些挑战正推动AI加速步入云原生时代。

12月19日,于2025火山引擎冬季FORCE原动力大会上,豆包大模型1.8版本与音视频创作模型Seedance 1.5 pro重磅发布。权威评测表明,豆包大模型在多模态理解、内容生成及Agent能力方面,已达到全球顶尖水平。

火山引擎总裁谭待透露,截至2025年12月,豆包大模型日均token消耗量已突破50万亿,相比去年同期增幅超过10倍。

在AI技术深入各行各业的关键时刻,火山引擎如何实现AI普惠?

火山引擎携手英特尔,云边端协同开启AI普惠新时代 AI云原生 火山引擎 豆包大模型 云边端协同 第1张

爆发背后的AI原生路径

“数据是新时代的石油”,火山引擎总裁谭待曾表示,云计算的第二次浪潮的核心是智能化,它不仅释放数据价值,更在于实现端到端业务落地。以大模型为根基,MaaS(模型即服务)与AI Agent将成为未来几年的主流发展脉络。

基于这一理念,火山引擎展开了一系列战略部署。

与1.0时代迥异,云原生的核心已从网页转向Agent。业界普遍将2025年视为Agent元年,作为大模型落地的关键媒介,Agent的能力直接决定了大模型应用的深度。

为突破Agent的能力天花板,火山引擎双管齐下:一方面聚焦底层模型,快速迭代版本,推出兼具性能与性价比的模型产品。例如本次升级的视频生成模型Seedance系列,性能表现更为灵活:Seedance-1.0-Lite主打成本与速度,适合高频创作;Seedance-1.0-Pro则能实现影视级画质与原生音效,支持2至12秒1080P自由生成、多镜头叙事及精准指令参考,满足电影级的感官叙事需求。

Seedance 1.5 pro音视频创作模型则展现出更卓越的完成度,其采用创新的原生音视频联合生成架构,可同步生成环境音、背景音乐、人声等元素,实现毫秒级音画同步。在对白处理方面,模型支持多人多语言对话,口型匹配精准,涵盖中文方言(如四川话、粤语)、英文及其他语种,大幅增强了视频内容的真实感与全球化创作空间。

同时,火山引擎积极携手生态伙伴优化硬件配置,开启云边端协同新模式,通过软硬件紧密协作的生态方案,最大限度释放AI潜能。

今年6月,在火山引擎2025春季原动力大会上,火山引擎与英特尔联合发布了搭载英特尔至强6性能核处理器的第四代通用计算型(ECS)实例家族,推动传统应用与AI应用全面进化。

火山引擎携手英特尔,云边端协同开启AI普惠新时代 AI云原生 火山引擎 豆包大模型 云边端协同 第2张

根据测算,相较于上一代实例,通用计算基础型实例g4i在MySQL数据库与Web应用上性能分别提升20%和19%;算力增强型实例g4ie在视频解码与图像渲染方面性能提升15%和26%;I/O增强型实例g4il在Spark大数据与Redis数据库上也分别取得13%和30%的性能增长。

在火山引擎的蓝图里,AI时代CPU依然扮演关键角色,通过与GPU高效协同,为企业级AI Agent提供端到端支持。其特点包括高并发、快速响应,进一步优化算力成本,并确保安全与隐私。

尤其在安全层面,对多数企业而言,业务稳定与安全是重中之重。随着大模型应用深入产业,越来越多高质量、高价值的敏感数据成为AI应用的核心要素。

火山引擎与英特尔TDX携手打造的机密虚拟化实例,无论是RAG应用中的信息提取、数据库处理,还是模型生成流程,均能在不改变应用程序中间框架的情况下,直接访问机密虚拟机,实现云端隔离与保护,确保RAG部署过程中的数据安全。

火山引擎云存储还引入了至强处理器的压缩加速技术(英特尔®QAT),旨在提高数据压缩与解压缩效率,实现优于软件LZ4算法的压缩率及更低延迟。QAT硬件加速生成CRC32校验码,保障数据完整性,并支持AES-XTS模式对称加密,增强数据可靠性。

火山引擎携手英特尔,云边端协同开启AI普惠新时代 AI云原生 火山引擎 豆包大模型 云边端协同 第3张

这样强大、灵活且兼顾成本效益的方案,最终构筑了企业的AI弹性基础设施底座,加速企业智能化转型。正如英特尔市场营销集团副总裁、中国区总经理郭威所说:“释放AI的真正价值,关键在于以易于部署、可扩展的方式将其融入企业工作流与个人体验。借助火山引擎在算力资源调度和大规模AI推理优化方面的优势,我们将芯片级创新通过云原生架构无缝延伸至边缘与终端,实现对多样化、异构算力资源的高效协同与统一交付,构建稳定可靠的服务环境,助力开发者与企业聚焦业务创新与落地。”

火山引擎携手英特尔,云边端协同开启AI普惠新时代 AI云原生 火山引擎 豆包大模型 云边端协同 第4张

AI普惠前夜,云边端协同开辟新天地

火山引擎的AI云原生,不仅是技术创新,更是未来推动AI应用落地的关键基础设施。通过与英特尔合作推进“云边端协同”趋势,火山引擎将拓展AI在更广泛行业与场景中的应用。

在本次2025火山引擎冬季FORCE原动力大会展区,我们同样见证了火山引擎与英特尔在边缘与终端侧的多样化应用。

在基层社区治理中,工作人员常面临琐碎繁杂的事务,业务跨度大、需求错综复杂。AI如何在此发挥作用?社区全能助手“华格格”应时而生。它借助企业AI工作台的智能意图识别能力,自动理解用户多领域需求,并精准分配给相应智能体,使原本分散在多个系统中的功能无缝衔接、自然协同。

流畅体验的背后,是英特尔HiAgent智能一体机解决方案的价值体现。它重点针对多智能体跨域请求频繁切换、体验割裂、上下文丢失等问题,依托火山引擎HiAgent企业AI工作台进行优化,自动将用户跨领域请求及上下文路由至对应智能体,聚合离散功能,打造“一专多能”数字员工,提升使用体验与处理效果,并以灵活、普惠的方式进一步降低部署门槛与算力成本。

火山引擎携手英特尔,云边端协同开启AI普惠新时代 AI云原生 火山引擎 豆包大模型 云边端协同 第5张

此前在德国慕尼黑车展期间,懂车帝巨懂车曾联合英特尔,呈现了一场未来世界般的展览,刷新沉浸式体验的极限。

通过PICO VR眼镜,在英特尔PC与服务器平台驱动的6DoF虚拟现实场景中,不仅支持用户头部旋转(3个旋转自由度),还能检测用户在空间中的位置移动(3个平移自由度),从而实现真实的空间行走与交互感。但要达到优质沉浸式体验,必须极低延迟,因此结合低延迟、高并发的RTC实时通讯技术,多方合作实现多路高清视频低延迟传输至VR设备。

在个人终端,基于英特尔与火山引擎提供的弹性AI能力,一种全新的内容创作工作模式正在兴起。英特尔AI PC视频剪辑Demo,是一款基于LLM/VLM大模型与端云混合算力打造的全自动视频创作工具,通过弹性灵活的算力组合,极大优化了生产流程效率。

例如,端侧GPU运行VLM模型,对视频素材深度解析后转化为结构化数据上传至云端。云端LLM模型随即根据用户指令,自动完成主题挖掘、故事性规划、分镜编排、背景音乐匹配及字幕生成,依据脚本规划再将任务返回本地,端侧完成视频剪辑合成与导出。通过端云协作,最大化优化视频创作者的工作效率。

AI时代,算力已成为企业竞争的“新能源”,云边端协同则让企业级Agent能力持续成熟。作为AI价值的关键衡量指标,豆包大模型日均调用量实现253倍增长,从去年5月的1200亿次/天跃升至今年9月的30万亿次/天。

截至目前,豆包大模型已在多个关键行业深度落地,覆盖超过5亿终端设备、九成以上主流车企、八成系统重要性银行及九成以上985高校,展现出广阔的应用前景。

此外,谭待现场透露,豆包大模型日均使用量已超过50万亿,自发布以来增长417倍。“万亿Tokens俱乐部”成员突破100家。

谭待表示:“明年模型之间最重要的不是竞争,而是共同把市场做大。明年这个市场可能再增长10倍,大家将不再是存量竞争或零和博弈,而是一起将市场蛋糕做大。同时,明年模型还需进一步降价,才能推动市场壮大。”

如今,AI算力竞争已进入白热化,英特尔与火山引擎的合作正重新定义企业获取与使用算力的方式。从云端到边缘,从训练到推理,从性能到安全,双方构建的全栈解决方案正逐步消除企业AI转型的技术壁垒。如果说最初的协作解决了产业智能的单点突破,那么如今“全局效率优化”时代已然开启,在火山引擎与英特尔的紧密合作下,AI普惠时代终将到来。