近日,一则颇为玩味的消息映入眼帘,其内容大致如下:
阅览至此,我不禁哑然失笑。
这实质上表明,众人耗费大量精力所打造的智能体,竟在产生负面价值。
根源其实非常简单。
源自传统产研思维的人们总认为,通过融入人类自认为能优化AI的知识(以提示词形式呈现,本质是规则)可以增强AI在特定领域的性能。
这些所谓的“人类智慧”与“技巧”,表现为提示词(Prompt),本质上是一系列赋予AI的规则。
它们或许能在限定目标下提升精度,但对于大模型而言,实则是一种损害,是一种“智能降级”的行为。
大模型的卓越之处何在?
在于它学习了浩瀚的数据,内部构建了一个模拟现实世界、极度复杂的概率模型。它具备一种“涌现”出的、我们尚未完全理解的通用智能。
你添加的那些规则,宛如给一位想象力无穷的画家,强行塞入一本儿童涂色书,还规定他必须在框内填色,不得越界。
你以为在“优化”他绘制苹果的能力,实则剥夺了他创作《星空》的潜力。
当你面对的需求,范围广阔、千变万化、无限接近真实世界时——比如律师的日常工作——你那点“局部优化”就显得得不偿失。
你削弱的通用智能部分所带来的损失,远大于你费力匹配的那部分需求收益。
最终化为用户的三个字:不好用。
这便是“智能降级”,也是当前构建智能体的典型陷阱。
更严峻的是,大模型本身,以及像通用搜索这样的辅助工具,进步越快,这个陷阱就挖得越深。
要规避“智能降级”这一巨大陷阱,核心在于一句话:
停止尝试教导AI“如何思考”,转而提供“思考的材料”。
(这背后的原则是我们自23年起强调的智能优先)
人类必须承认AI的“心智”(基础模型)在无属性智能上已超越人类,因此不要充当蹩脚的“教师”,而应成为它的“情报官”。
为它提供原本无法触及的、高质量的、独家的“情报”,即数据和上下文。然后信任它的智力,让它自主推理与判断。
当然,由于你更清楚自身目标,需要一个较为复杂的评估系统。
(这部分颇为复杂,本文不展开详述)
沿此思路,让智能体体现价值的方向清晰可见:
通用大模型,通晓的是公共领域。
它不了解你公司上周的会议内容,不知道你们最关键客户的身份,更不掌握你们王牌产品的研发历程。
这些,便是你的“独占性上下文”。这是你唯一且最稳固的护城河。
我们以往的表述:数据的边界即应用的边界。
智能体的首要价值,是将这些散落于公司各处、内部的、私有的数据,安全高效地馈送给大模型。
简言之,就是为AI开启“内网权限”。让它能查阅所有邮件、聊天记录、会议纪要、代码库、产品文档、客户关系管理(CRM)系统中的数据。
当AI能洞察这一切时,它便不再是一个胡言乱语的“互联网代言人”,而是一个真正懂你业务的“数字员工”。
人类的主要任务并非以技巧提升智能,而是补足数字化的课程。此事若深挖,背后涉及数字成本与生产关系问题。
无论如何,人类这部分才是最大的成本与障碍。
仅能查看还不够,还需能执行任务。
但这种“执行”,并非你规定好步骤一二三的僵化流程。
而是你提供一套“工具”,如同给一位聪明的工人一个工具箱,内含锤子、扳手、电钻。然后你告知目标:“把墙上那幅画挂起来”。
他会自行判断,该使用钉子与锤子,还是膨胀螺丝与电钻。
这个“工具箱”,在数字世界中即各种API。例如“查询库存”、“下达订单”、“发送邮件”、“创建日程”……
一个优秀的智能体,应是一个能熟练运用你所给工具箱、自主完成设定目标的“高效助手”。它既有头脑,也有手脚。
这更为棘手,本文不予展开。
前述第一、二点并非AI领域独有问题,与过去的ERP、数字化等重叠度较高。一定程度上是补课与融合。陈果同志常讲的内容在此颇为有用。例如:
阐述了这么多,究竟哪种产品能避开“智能降级”的陷阱?
我们可以对比市面上两种不同形态的产品,便一目了然。
此类产品,我称之为“工作流AI”。
其明显缺陷在于灵活度不足,而灵活度不足源于整合深度不够。
它的逻辑是,在一个封闭软件内部,预设一个“分析合同”的流程。然后让AI填充该流程中的某些环节。
此时,当人类能与AI高频交互时,你的工作流带来的多是弊端。
它的问题可能包括:
1.上下文缺失:它仅知晓你上传的这份合同,不了解合同背景、谈判过程(可能存于邮件)、相关历史合同(可能位于其他文件夹)。它是个“视障者”。
2.流程僵化:它将你与AI禁锢于固定流程中。律师想换个角度提问,或让AI结合其他信息,几乎不可能。这正是“智能降级”的重灾区。
3.价值孤岛:其价值仅限于“分析合同”这一孤立场景。它无法将此能力与公司其他工作流串联。
Glean的本质是一个“上下文平台”。
其所有贡献在于确保我们反复提及的:现实理解纵深。
它不预设任何流程。其唯一目标,是打通公司内部所有数据孤岛,将Slack、Google Drive、Jira、Salesforce……等系统中的数据全部连接,形成一个统一的、可供AI检索与理解的“企业知识图谱”或“企业大脑”。
这部分最棘手的工作并非大模型出现后才完成。
国内昔日所说的数据中台与此任务极为相似。
只不过做数据中台的公司估计已所剩无几,这从侧面反映了AI深度应用的实际难度。
以下是我随意查找的一个中台图示,大家可与Glean的架构对比:
(https://juejin.cn/post/6844904164292575246)
下面是Glean的架构图:
对比之下会得出一个惊人结论:欲构建智能体,先做好数据中台...
若做不好数据中台,智能体同样难以奏效,至少涉及生产关系的肯定不好用
Glean本身,便是那个卓越的“情报官”。它不教导AI如何思考,仅负责将最全面、最准确的“情报”馈予AI。
当智能体构建于Glean这类平台之上,它便焕发生机。你询问:“上个季度我们最重要客户‘ACME公司’有何进展与风险?”
一个“孤岛AI”会茫然无措。
但基于Glean的智能体如此运作:
1. 调取ACME公司在CRM中的所有记录。
2. 调取与ACME相关的所有邮件与Slack聊天记录。
3. 调取内部关于ACME项目的会议纪要与周报。
4. 随后,它调用大模型的通用智能,整合这些碎片化信息,提供一个有据可依、蕴含洞察的回答:“进展是XX合同已续签,但风险是关键接口人近期在邮件中抱怨交付延迟,相关讨论见于XX的Slack频道。”
可见,整个过程无人预设“客户风险分析”的刻板流程。
Glean这种形态,不太会出现“智能降级”问题。
因为它并非做“减法”(以规则限制AI),而是做“乘法”(以数据拓宽AI视野)。其核心价值不在设计多精妙的Prompt,而在构建多强大的“数据通路”。
当底层大模型从GPT-4升级至GPT-5,那份5万美元的“孤岛AI”可能报废。
但Glean的价值反而飙升。因为更强大的大脑,配以更全面的数据,所能催生的智能呈指数增长。
再次强调,上述内容已简化以说明方向,实际开发时,累计偏差等处理涉及复杂过程。需架构、领域模型等综合。我一年前曾撰文探讨此类话题。
归根结底,这背后是一种根本的范式转变,一种“智能优先(AI First)”的原则。
过去思路是“流程优先”,我们设计流程,让AI辅助。这本质是人类优先,流程用于固化期望。
而“智能优先”则反转:我们默认有一个聪明的“大脑”处于核心,所有工作皆为这大脑搭建能发挥最大价值的环境。
我们以往称此為:从if else调整到any then的思维模式。
此原则推至终极形态,便是“无人公司”。
未来组织,不再依赖人类员工执行成千上万僵化的SOP(标准操作程序)。而是将整个公司业务逻辑,封装入一套智能体体系。
如何封装? 非编写僵化代码,而是为智能体体系定义:
1.目标(Goals):例如,“维持公司产品A库存量在1000到1200件之间”。
2.上下文(Context):为其接入实时销售数据、供应链数据、物流信息(Glean模式)。
3.工具(Tools):赋予其调用采购系统API、向供应商发送邮件API、向人类主管发送预警API的权限。
这些皆需一个底座,此底座即我们基本失败的数据中台。
然后,这套智能体体系将如生命体般,7x24小时自主运行,自行决策,调用工具执行。
人类角色,从执行者转变为目标设定者与最终结果监督者。
因此,规避为AI“设限”并最终产生“智能降级”产品,首需弄清基础问题:AI是什么,有何用途!
(不过说来尴尬,我撰写智能原生、智能优先、无人公司近两年,不说他人,我的朋友们中许多似乎仍不太理解或认同)
本文由主机测评网于2025-12-25发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20251212530.html