在Anthropic,有一位常驻哲学家Amanda Askell,她专门研究如何与AI模型进行高效沟通。她不仅主导了Claude的个性塑造、价值观对齐机制的设计,还提炼出若干行之有效的提示词技巧。哲学在AI时代并未过时,反而那些经过哲学训练、精通提示词技巧的人,年薪中位数可达15万美元。
设想你面前有一台最新款的超级咖啡机。
你按了十几次按钮,却始终做不出自己想要的咖啡。
问题不在于咖啡机的性能不够强大,而在于你不知道正确的操作指令。
在Anthropic,就有一位专门研究和AI这台“超级智能咖啡机”对话的专家。
她既不是工程师,也不是程序员,而是一位驻场哲学家——Amanda Askell。
Amanda Askell是一位接受过系统哲学训练的学者,主要负责协助构建Claude的个性框架
Amanda Askell是一位受过哲学训练的学者,承担着协助
Askell是地地道道的哲学专业出身。
她曾在牛津大学和纽约大学钻研哲学,2018年获得纽约大学哲学博士学位。
毕业后,Askell曾任职于OpenAI,担任政策方向的研究科学家。
2021年她加入Anthropic,至今一直从事对齐微调方向的研究科学家工作。
Askell负责为Anthropic的Claude注入特定的个性特征,同时规避其他不想要的特性。
她由于主导了Claude的个性塑造、对齐与价值观机制的设计,入选了「2024年最具影响力的100位AI人物」 。
在Anthropic,Askell拥有一个「Claude耳语者」(Claude whisperer)的绰号。
这大概是因为她的研究方向聚焦于如何与Claude对话,并持续优化它的输出效果。
哲学,就像一把开启AI复杂机制的钥匙。
近期,Askell分享了她构建高效AI提示词的方法论。
她认为提示词工程需要清晰的表达、不断的尝试,以及哲学式的思维方式。
在Askell看来,哲学的核心能力之一,是能把思想表述得清晰而准确,而这正是发挥AI最大价值的关键:
很难总结其中的诀窍,一个关键是要愿意频繁地与模型互动,并仔细审视它每一次的输出。
Askell认为出色的提示词作者应该「非常乐于尝试、勇于试验」,但比不断试错更重要的是哲学思维。
哲学思维确实有助于撰写提示词,我很大一部分工作就是尽可能清晰地向模型阐述我正在思考的问题、担忧或想法是什么。
哲学思维对清晰表达的重视,不仅能帮助人们优化自己的提示词,也有助于更深刻地理解AI本身。
https://platform.claude.com/docs/en/build-with-claude/prompt-engineering/overview?utm_source=chatgpt.com
在Anthropic发布的《提示词工程概览》中,就提出了包含清晰表达在内的提示词技巧:
清晰且直接(Be clear and direct);
提供示例(multishot/few-shot prompting),使用多轮示例来阐明预期输出;
如果任务复杂,让模型分步思考(chain-of-thought),以提升准确性;
给Claude一个角色(system prompt/role prompt),以便设定上下文、风格、任务边界。
这意味着在与Claude交流时,我们可以把它想象成一个知识渊博、非常聪明,但又容易健忘、缺乏背景知识的新员工,需要你给出明确的指引。
也就是说,它并不了解你的规范、风格、偏好或工作方式。
你越精确地说明需求,Claude的回复就会越令人满意。
Netscape(网景)联合创始人Marc Andreessen
Netscape(网景)联合创始人,硅谷知名技术企业家与风险投资人Marc Andreessen不久前也表示,AI的强大之处在于把它当作「思维伙伴」:
「AI的艺术就在于你问它什么问题」。
在AI时代,提出一个问题往往比解决一个问题更为关键。
或者说,正确地提出问题(提示词工程),就是在高效地解决问题。
人类把提问的部分(提示词)做好了,解决问题的部分主要交给AI即可。
这也解释了为何掌握提示词技能的人能够获得高薪工作。
根据levels.fyi(科技从业者薪资查询平台)的数据,提示词工程师的年薪中位数高达15万美元。
近日,Karpathy在一篇推文中表达了他对提示词的见解。
他建议人们不要将大模型视为一个「实体」,而应看作一个「模拟器」。
例如,在探讨某个话题时不要问它“你怎么看xyz”(某个问题),因为你的提问对象并非一个真正的个体。
而是应当这样问:
如果要讨论xyz,找哪些角色/人群会比较合适?他们会怎么说?
Karpathy认为大模型可以切换、模拟许多不同的视角,但它不会像人类那样,长时间地思考xyz并逐步形成自己的观点。
因此,如果你用「你」来提问,它会根据微调数据里的统计特征,自动套用某种隐含的「人格嵌入向量」,再以那种人格的方式作答。
Karpathy的这种解释,在一定程度上打破了人们想象中「在向一个AI发问」时所带来的神秘感。
针对Karpathy的观点,网友Dimitris提到,模型是否会自动「扮演」成最有能力回答问题的专家人格。
Karpathy回应这种现象确实存在,在某些任务中确实可能工程化了一个「人格」,比如让模型模仿专家、通过奖励模型得到高分、模仿用户喜欢的风格等。
这样会出现某种「复合型人格」,但这种人格是刻意工程叠加而形成的,并非自然形成的人类心智。
所以,AI从本质上仍然是token预测机器。模型的所谓「人格」,只是通过训练、人为约束、系统指令等手段叠加上的「外壳」。
对此,Askell也表达了类似观点。
尽管Claude的个性中仍有一种「类人的特质」,但它没有情感、记忆或自我意识。
因此,它所表现出的任何「个性」都只是复杂语言处理的结果,而非内在生命的体现。
开发AI模型,有时感觉就像在玩打地鼠游戏。
刚修复了模型在一个问题上的错误回答,它又会在别的问题上出错。
层出不穷的问题就像那些不断从洞口探出头的地鼠一样。
OpenAI等机构的研究人员,将这类现象的一种表现称为「裂脑问题」(split-brain problem):
提问方式稍微改变一下,就可能让模型给出截然不同的答案。
「裂脑问题」背后折射出当今大模型的一个致命缺陷:
它并不会像人类那样逐步形成对世界运作方式的理解。
一些专家据此认为,它们难以很好地泛化,无法处理训练数据之外的任务。
这也可能引发一个质疑:
投资者向OpenAI、Anthropic等实验室投入数百亿美元,希望它们训练出的模型能在医学、数学等领域做出新的发现,这样的投入是否真的有效?
「裂脑问题」通常出现在模型开发的后期阶段,也就是后训练阶段。
在这一阶段,模型会被输入经过精心筛选的数据,比如医学、法律等特定领域的知识,或者是学习如何更好地回应用户。
例如,一个模型可能被训练在数学题数据集上,以便更准确地解答数学问题。
它也可能被训练在另一个数据集上,以提升回答时的语气、个性和格式。
但这样做有时会让模型无意间学会「分场景作答」,它会根据自「以为」遇到的场景来决定回答方式:
是一个明确的数学问题,还是它在另一个训练数据集中经常见到的那类更泛化的问答场景。
如果用户用正式的证明风格来提数学问题,模型通常能答对。
但如果用户用更随意的口吻提问,它可能误以为自己处在一个更偏向被奖励「友好表达、格式漂亮」的场景里。
于是可能为了这些附加属性而牺牲准确性,比如写出一个排版工整、甚至带表情符号的答案。
也就是说AI在回答问题的时候也会「看人下菜碟」:
如果觉得用户问的是「低水平」的问题,它就会给出「低水平」的回答;如果它觉得用户问的是「高水平」的问题,它也会呈现「高水平」的回答。
这是模型对提示词格式「过度敏感」,而导致出现的一些本不该有的细微差异。
比如提示词里是用破折号还是冒号,都可能影响模型回答的质量。
「裂脑问题」凸显了训练模型的困难性和微妙之处,尤其是要确保训练数据的组合恰到好处。
它也解释了为什么许多AI公司愿意砸下数十亿美元,聘请数学、编程、法律等领域的专家来生成训练数据,避免他们的模型在专业用户面前继续犯一些基础性错误。
「裂脑问题」的出现,也降低了人们对于AI即将自动化多个行业(从投行到软件开发)的预期。
虽然和AI一样,人类同样也会误解问题。
但AI存在的意义正是在于弥补这些人类的不足,而不是通过「裂脑问题」放大这种不足。
因此,必须要有具备哲学思维和特定领域专业知识的人类专家,通过提示词工程来构建大模型训练和使用的「说明书」,人们借助这些「说明书」与大模型沟通,才能应对大模型的「裂脑问题」。
而且,在大模型出现「拟人」特征时,还要避免把大模型误当成「人」,这也有助于我们更好地发挥它的价值,降低机器幻觉。
这其实都非常需要哲学训练,使自己与AI的对话清晰而富有逻辑。
从这个角度来说,对于大部分人而言,能不能用好AI,不取决于你的AI专业知识,而取决于你的哲学思维能力。
参考资料:
https://www.theinformation.com/articles/ais-split-brain-problem?rc=epv9gi%20
https://x.com/karpathy/status/1997731268969304070%20
https://www.businessinsider.com/anthropic-philosopher-amanda-askell-tips-ai-prompting-whispering-claude-2025-12
本文由主机测评网于2026-03-05发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260328839.html