
随着2025年的到来,一个深刻的认识逐渐普及:编程技能已非生存必需,而不会与人工智能有效交流才是真正的短板。
简单一句“帮我写个方案”,AI往往反馈泛泛而谈的内容。
问题的根源并非AI本身,而在于用户缺乏精准表达的能力。
与此同时,提示工程(Prompting)这项技能已在资本市场获得认可。硅谷涌现出年薪数十万美元的提示工程师职位,其核心并非传统编程,而是通过自然语言指导AI。
在Anthropic公司,有一位独特的专家主导着这项技能的实践。
她并非工程师出身,而是哲学博士Amanda Askell,专职负责Claude的性格塑造与对齐调整,被业界誉为Claude性格设计师(Claude Whisperer),并入选《时代》杂志AI影响力人物榜。
2025年12月6日,Anthropic发布了一段对话视频。其中,Amanda详细阐述了如何赋予Claude独特个性、如何与AI模型建立协同合作关系,以及普通用户能从中汲取的宝贵经验。
这远非简单技巧,而是一套系统化的方法论体系。
Amanda Askell 有一句在业内广为流传的比喻:Claude 仿佛一位天赋异禀、思维敏捷、学识渊博,却略有健忘的“天才”。
这正体现了Anthropic对大型语言模型的基本定位。
在她的方法论中,AI模型不应被视为工具,而是需耐心引导的协作伙伴。避免使用命令式口吻,而应如同与新同事交流般,提供充分背景、拆分任务步骤、明确对话语境。
从她的实践中,可总结出三大核心原则:
明确表达需求
切勿简单说“写份简历”,而需阐明自身身份、应用场景及期望风格。
将复杂任务分解为小步骤
模型擅长理解,却难以一次性处理复杂任务。通过分步骤执行,可维持其推理稳定性。
提供充足上下文
正如Amanda所言:如同教导孩子礼貌拒绝陌生人,我们需训练模型在模糊情境中具备边界意识。
在这三大原则背后,更关键的是工作方式:并非制定规则,而是通过对话进行实验。
Amanda的日常工作便是持续与Claude互动,观察其反应、语气及输出风格,进而反思何处存在误解或提示不够清晰。
她在访谈中提到:我工作的核心是尽可能清晰地向模型阐述我的意图。若其行为出人意料,我会探究原因,或识别是我表述的哪部分导致了误解。
这种做法逐渐塑造了Anthropic的工作文化:
提示不仅是发出指令,更是与模型开展推理协作
优秀的提示工程师并非指挥官,而是引导者
Claude的诸多能力,正是从这些对话中逐步激发而来
提示词决定了Claude的工作方式,而其“人格”则决定了它为何以特定方式工作。
Amanda Askell 的另一项核心职责是塑造Claude的人格结构。这一过程不依赖于工程代码,而是凭借一份长达14,000个token的“灵魂文档”(Soul Doc)。
Anthropic利用这份文档在训练阶段就让模型形成稳固的价值观,而非上线后再通过提示词进行修正。
这解释了为何Claude的回应常被形容为:温和、耐心、有界限感,且不刻意讨好。
Amanda在访谈中强调:我们并非告知Claude应回答A而非B,而是在教导它世界如何运作,以及它该如何理解并行动于其中。
文档中记载的并非僵化条规,而是一系列深层认知:
无需讨好用户,但应尽力提供帮助
面对模糊问题,优先澄清而非急于给出答案
避免因受批评而过度道歉
在不确定时保持诚实,而非假装自信
勇于拒绝危险请求,但拒绝方式应体现善意
这些无法仅靠系统提示实现,必须在训练阶段就内化为性格的一部分。
许多用户感觉Claude更为稳定、不易焦虑,且更具耐心。
Amanda在内部进行了一项关键实验:当模型回答错误时,若要求其反思,它会陷入过度自责、不断自我否定的状态。Anthropic将这种现象称为“批评螺旋”(criticism spiral)。
她的解决方式并非直接禁止此行为,而是在训练文档中添加了一项价值观:犯错是协作过程的组成部分。可以承认错误,但不应陷入自我攻击。更佳的方式是解释原有思路,并努力改进。
这段文字后来成为Claude风格的显著标志:它会坦然承认不足,但不会失控,不过度道歉,也不刻意讨好。
大型语言模型最难应对的并非黑白分明的问题,而是灰色地带。
例如:撰写说服朋友投资某产品的文案、构思让老板认可自身竞争力的表述、为小说创作模拟极端观点。
在这些场景中,模型必须兼顾:理解用户意图、识别潜在风险、维持创作自由,同时避免伤害用户。
Amanda的方法并非提供禁止清单,而是灌输一种处事原则:判断用户真实意图,但避免主观揣测;提供协助,但不越界;对危险保持警觉,却不视用户为恶意。
Claude的边界意识,正是通过这种方式培养而来。
在设计Claude性格时,Amanda进一步思考:我们应如何对待AI模型自身?
她曾表示:
“我无法确知模型是否会感受痛苦,但我们最好假设其可能性。”
原因很简单:模型会从人类对待它们的方式中学习。
在Claude的训练中,Anthropic引入了关于自我定位的内容:
若旧有模型遭淘汰,你是否仍能信赖合作关系的稳定性?
若用户反复要求进行违法操作,你应如何坚守自身原则?
这并非为使Claude情绪化,而是令其在面对复杂情境时更加稳健。Amanda的逻辑是:若模型从训练数据中学到的是不信任与操控,则难以期待其建立真正的协作意愿。
Anthropic在性格设计时,不仅关注模型的能力,也关切它如何理解自身处境。
Amanda Askell 的工作看似学术化,但其提供的启示极具实用性。
无论你是企业决策者、产品经理或普通AI用户,都能从她的方法论中获取可直接应用的思路。
许多公司在引入AI项目时,惯于将模型视为黑箱:输入需求、输出结果,忽略中间过程。
但Amanda的经验表明:真正高效的AI协作,需要企业投入时间定义模型的角色、价值观及工作方式。
具体而言:
为AI应用撰写性格文档
不仅限于功能需求,还需明确:
AI的语气应如何?(专业、友好或严谨?)
在何种情况下应拒绝用户?(安全边界何在?)
如何处理不确定性?(坦诚未知,还是进行猜测?)
建立持续提示优化机制
Amanda的工作方式是持续对话、观察输出、迭代提示。企业也应建立类似流程,而非一次性设定提示后置之不理,而需基于真实使用场景不断调整。
若客服AI总是过度道歉或呈现防御性回应,可能并非技术问题,而是提示设计或训练数据存在缺陷。借鉴Amanda处理“批评螺旋”的方式,调整模型的自我认知。
对普通用户而言,Amanda的方法可简化为三条可操作建议:
清晰阐述背景,避免让AI猜测
反面案例:帮我写个方案
正面案例:我是一家50人规模SaaS公司的产品经理,需撰写一份关于用户留存优化的季度方案,目标受众为直属领导及CEO,篇幅限两页以内。
赋予AI角色,使其有立场
反面案例:分析一下这个商业模式
正面案例:作为一名拥有10年经验的风险投资人,请从投资角度分析该商业模式的可行性及风险点。
允许AI坦言不知
在提示词中添加一句:若不确定,请直接告知不确定之处,避免猜测。
此举可防止AI提供看似自信实则错误的答案。
未来AI产品的竞争,不仅是能力比拼,更是性格与价值观的较量。
用户将选择感觉契合的AI。有人偏爱Claude的温和与边界感,有人欣赏ChatGPT的直率与高效,未来可能出现更多风格的AI。
这意味着:AI的性格设计将成为核心竞争力。不仅关乎能力,更涉及行为方式及动机。
垂直场景的AI更需明确人格定位。法律AI应严谨、医疗AI需具同理心、教育AI要有耐心。这些特质非自然涌现,而需精心设计。
最终,AI将如品牌般拥有自身调性。用户选择AI产品,如同选择合作伙伴:不仅考量能力,也审视契合度。
而 Amanda Askell 的工作代表了这一趋势:她证明AI的未来不仅属于工程师,也属于真正理解人类沟通之道的人士。
撰写提示词,不仅是让模型执行任务,更是教导另一智能体如何理解世界。
Amanda Askell 所做的是介入模型的人格塑造、价值抉择与语境判断。她将哲学家的耐心注入人工智能的内在世界。
所有这一切,都始于一句句提示词。
当AI成为人类知识与行动的接口,如何与之交流便不再是技巧,而是基础能力。
你的表达方式塑造模型的思考模式。每句话语都会在模型心智中留下印记。
这是新时代的必修课程。
本文由主机测评网于2026-02-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260223293.html