当前位置:首页 > 科技资讯 > 正文

智能降级:AI智能体的价值陷阱与破解之道

近日,一则颇为玩味的消息映入眼帘,其内容大致如下:

智能降级:AI智能体的价值陷阱与破解之道 智能降级 AI智能体 大模型 数据中台 第1张

阅览至此,我不禁哑然失笑。

这实质上表明,众人耗费大量精力所打造的智能体,竟在产生负面价值。

为何会出现这种情况?

根源其实非常简单。

源自传统产研思维的人们总认为,通过融入人类自认为能优化AI的知识(以提示词形式呈现,本质是规则)可以增强AI在特定领域的性能。

这些所谓的“人类智慧”与“技巧”,表现为提示词(Prompt),本质上是一系列赋予AI的规则。

它们或许能在限定目标下提升精度,但对于大模型而言,实则是一种损害,是一种“智能降级”的行为。

大模型的卓越之处何在?

在于它学习了浩瀚的数据,内部构建了一个模拟现实世界、极度复杂的概率模型。它具备一种“涌现”出的、我们尚未完全理解的通用智能。

你添加的那些规则,宛如给一位想象力无穷的画家,强行塞入一本儿童涂色书,还规定他必须在框内填色,不得越界。

你以为在“优化”他绘制苹果的能力,实则剥夺了他创作《星空》的潜力。

当你面对的需求,范围广阔、千变万化、无限接近真实世界时——比如律师的日常工作——你那点“局部优化”就显得得不偿失。

智能降级:AI智能体的价值陷阱与破解之道 智能降级 AI智能体 大模型 数据中台 第2张

你削弱的通用智能部分所带来的损失,远大于你费力匹配的那部分需求收益。

最终化为用户的三个字:不好用

这便是“智能降级”,也是当前构建智能体的典型陷阱。

更严峻的是,大模型本身,以及像通用搜索这样的辅助工具,进步越快,这个陷阱就挖得越深。

如何应对?

要规避“智能降级”这一巨大陷阱,核心在于一句话:

停止尝试教导AI“如何思考”,转而提供“思考的材料”。

(这背后的原则是我们自23年起强调的智能优先)

人类必须承认AI的“心智”(基础模型)在无属性智能上已超越人类,因此不要充当蹩脚的“教师”,而应成为它的“情报官”。

为它提供原本无法触及的、高质量的、独家的“情报”,即数据和上下文。然后信任它的智力,让它自主推理与判断。

当然,由于你更清楚自身目标,需要一个较为复杂的评估系统。

(这部分颇为复杂,本文不展开详述)

沿此思路,让智能体体现价值的方向清晰可见:

方向一:深耕“独占性上下文”

通用大模型,通晓的是公共领域。

它不了解你公司上周的会议内容,不知道你们最关键客户的身份,更不掌握你们王牌产品的研发历程。

这些,便是你的“独占性上下文”。这是你唯一且最稳固的护城河。

我们以往的表述:数据的边界即应用的边界。

智能体的首要价值,是将这些散落于公司各处、内部的、私有的数据,安全高效地馈送给大模型。

简言之,就是为AI开启“内网权限”。让它能查阅所有邮件、聊天记录、会议纪要、代码库、产品文档、客户关系管理(CRM)系统中的数据。

当AI能洞察这一切时,它便不再是一个胡言乱语的“互联网代言人”,而是一个真正懂你业务的“数字员工”。

人类的主要任务并非以技巧提升智能,而是补足数字化的课程。此事若深挖,背后涉及数字成本与生产关系问题。

无论如何,人类这部分才是最大的成本与障碍。

方向二:供给“高势能工具箱”

仅能查看还不够,还需能执行任务。

但这种“执行”,并非你规定好步骤一二三的僵化流程。

而是你提供一套“工具”,如同给一位聪明的工人一个工具箱,内含锤子、扳手、电钻。然后你告知目标:“把墙上那幅画挂起来”。

他会自行判断,该使用钉子与锤子,还是膨胀螺丝与电钻。

这个“工具箱”,在数字世界中即各种API。例如“查询库存”、“下达订单”、“发送邮件”、“创建日程”……

一个优秀的智能体,应是一个能熟练运用你所给工具箱、自主完成设定目标的“高效助手”。它既有头脑,也有手脚。

方向三实为自我优化

这更为棘手,本文不予展开。

前述第一、二点并非AI领域独有问题,与过去的ERP、数字化等重叠度较高。一定程度上是补课与融合。陈果同志常讲的内容在此颇为有用。例如:

何种产品形态能胜出?仍以Glean为鉴

阐述了这么多,究竟哪种产品能避开“智能降级”的陷阱?

我们可以对比市面上两种不同形态的产品,便一目了然。

失败形态:那份5万美元的合同AI

此类产品,我称之为“工作流AI”。

其明显缺陷在于灵活度不足,而灵活度不足源于整合深度不够。

它的逻辑是,在一个封闭软件内部,预设一个“分析合同”的流程。然后让AI填充该流程中的某些环节。

此时,当人类能与AI高频交互时,你的工作流带来的多是弊端。

它的问题可能包括:

1.上下文缺失:它仅知晓你上传的这份合同,不了解合同背景、谈判过程(可能存于邮件)、相关历史合同(可能位于其他文件夹)。它是个“视障者”。

2.流程僵化:它将你与AI禁锢于固定流程中。律师想换个角度提问,或让AI结合其他信息,几乎不可能。这正是“智能降级”的重灾区。

3.价值孤岛:其价值仅限于“分析合同”这一孤立场景。它无法将此能力与公司其他工作流串联。

成功形态:Glean这类产品

Glean的本质是一个“上下文平台”。

其所有贡献在于确保我们反复提及的:现实理解纵深。

它不预设任何流程。其唯一目标,是打通公司内部所有数据孤岛,将Slack、Google Drive、Jira、Salesforce……等系统中的数据全部连接,形成一个统一的、可供AI检索与理解的“企业知识图谱”或“企业大脑”。

这部分最棘手的工作并非大模型出现后才完成。

国内昔日所说的数据中台与此任务极为相似。

只不过做数据中台的公司估计已所剩无几,这从侧面反映了AI深度应用的实际难度。

以下是我随意查找的一个中台图示,大家可与Glean的架构对比:

智能降级:AI智能体的价值陷阱与破解之道 智能降级 AI智能体 大模型 数据中台 第3张

(https://juejin.cn/post/6844904164292575246)

下面是Glean的架构图:

智能降级:AI智能体的价值陷阱与破解之道 智能降级 AI智能体 大模型 数据中台 第4张

对比之下会得出一个惊人结论:欲构建智能体,先做好数据中台...

若做不好数据中台,智能体同样难以奏效,至少涉及生产关系的肯定不好用

Glean本身,便是那个卓越的“情报官”。它不教导AI如何思考,仅负责将最全面、最准确的“情报”馈予AI。

当智能体构建于Glean这类平台之上,它便焕发生机。你询问:“上个季度我们最重要客户‘ACME公司’有何进展与风险?”

一个“孤岛AI”会茫然无措。

但基于Glean的智能体如此运作:

1. 调取ACME公司在CRM中的所有记录。

2. 调取与ACME相关的所有邮件与Slack聊天记录。

3. 调取内部关于ACME项目的会议纪要与周报。

4. 随后,它调用大模型的通用智能,整合这些碎片化信息,提供一个有据可依、蕴含洞察的回答:“进展是XX合同已续签,但风险是关键接口人近期在邮件中抱怨交付延迟,相关讨论见于XX的Slack频道。”

可见,整个过程无人预设“客户风险分析”的刻板流程。

Glean这种形态,不太会出现“智能降级”问题。

因为它并非做“减法”(以规则限制AI),而是做“乘法”(以数据拓宽AI视野)。其核心价值不在设计多精妙的Prompt,而在构建多强大的“数据通路”。

当底层大模型从GPT-4升级至GPT-5,那份5万美元的“孤岛AI”可能报废。

但Glean的价值反而飙升。因为更强大的大脑,配以更全面的数据,所能催生的智能呈指数增长。

再次强调,上述内容已简化以说明方向,实际开发时,累计偏差等处理涉及复杂过程。需架构、领域模型等综合。我一年前曾撰文探讨此类话题。

总结:智能优先与无人公司

归根结底,这背后是一种根本的范式转变,一种“智能优先(AI First)”的原则。

过去思路是“流程优先”,我们设计流程,让AI辅助。这本质是人类优先,流程用于固化期望。

而“智能优先”则反转:我们默认有一个聪明的“大脑”处于核心,所有工作皆为这大脑搭建能发挥最大价值的环境。

我们以往称此為:从if else调整到any then的思维模式。

此原则推至终极形态,便是“无人公司”。

未来组织,不再依赖人类员工执行成千上万僵化的SOP(标准操作程序)。而是将整个公司业务逻辑,封装入一套智能体体系

如何封装? 非编写僵化代码,而是为智能体体系定义:

1.目标(Goals):例如,“维持公司产品A库存量在1000到1200件之间”。

2.上下文(Context):为其接入实时销售数据、供应链数据、物流信息(Glean模式)。

3.工具(Tools):赋予其调用采购系统API、向供应商发送邮件API、向人类主管发送预警API的权限。

这些皆需一个底座,此底座即我们基本失败的数据中台。

然后,这套智能体体系将如生命体般,7x24小时自主运行,自行决策,调用工具执行。

人类角色,从执行者转变为目标设定者与最终结果监督者。

因此,规避为AI“设限”并最终产生“智能降级”产品,首需弄清基础问题:AI是什么,有何用途!

(不过说来尴尬,我撰写智能原生、智能优先、无人公司近两年,不说他人,我的朋友们中许多似乎仍不太理解或认同)