在硅谷快节奏的代码竞赛中,Claude显得与众不同。当其他大型模型仍在较量计算能力和性能评分时,Claude在巩固自身代码技能的同时,却深入探讨了一个看似‘抽象’的问题:当用户与AI讨论形而上学时,AI是否应该用科学实证来反驳?
这个问题的答案,隐藏在Claude神秘的‘系统提示词(System Prompt)’中,其根源来自一位特殊人物的思考——Anthropic内部的哲学家Amanda Askell。
经常使用AI的人都知道,大型模型在与用户对话前,都会先阅读一段‘系统提示词’,这个步骤不会对用户显示,而是模型的自动操作。这些提示词规定了模型的行为准则,很常见,不过在Claude的提示词中,竟要求模型参考‘欧陆哲学(Continental Philosophy)’。
欧陆哲学是什么?为什么要在基于概率和统计的语言模型里,植入如此深奥的人文概念?
快速科普一下:哲学界长期存在‘英美分析哲学’与‘欧陆哲学’的流派分野。分析哲学像严谨的科学家,注重逻辑分析、语言清晰和科学实证,这通常是程序员、工程师乃至AI训练数据的默认思维模式——追求精确,一就是一,二就是二。
而欧陆哲学(Continental Philosophy,源于欧洲大陆)则更像诗人或历史学家。它不执着于将世界拆解成冷冰冰的逻辑,而是关注‘人类的生存体验’、‘历史语境’和‘意义’。它承认在科学真理之外,还有一种关乎存在和精神的‘真理’。
作为Claude性格与行为的塑造者,Anthropic公司的‘哲学家’Amanda Askell解释了置入欧陆哲学的原因。她发现如果让模型过于强调‘实证’和‘科学’,它很容易变成一个缺乏共情的‘杠精’。
‘如果你跟Claude说:‘水是纯粹的能量,喷泉是生命的源泉’,你可能只是在表达一种世界观或进行哲学探索,’Amanda解释道,‘但如果没有特殊的引导,模型可能会一本正经地反驳你:‘不对,水是H2O,不是能量。’。
引入‘大陆哲学’的目的,正是帮助Claude区分‘对世界的实证主张’与‘探索性或形而上学的视角’。通过这种提示,模型学会了在面对非科学话题时,不再机械地追求‘事实正确’,而是能够融入用户的语境,进行更细腻、更具探索性的对话。
这只是一个例子,Claude的系统提示词长达14000token,包含许多类似设计。在Lex Fridman的播客中,Amanda提到过,她极力避免Claude陷入一种‘权威陷阱’。她特意训练Claude在面对已定论的科学事实时(如气候变化)不搞‘理中客’(both-sidesism),但在面对不确定领域时,必须诚实地承认‘我不知道’。这种设计哲学,是为了防止用户过度神话AI,误以为它是全知全能的神谕者。
在工程师主导的AI领域,Amanda Askell的背景显得独特,但她的工作和职责却不可或缺。
查看她的履历,她是一位真正的哲学博士。她在纽约大学(NYU)的博士论文研究的是硬核的‘无限伦理学(Infinite Ethics)’——探讨在涉及无限数量的人或无限时间跨度时,伦理原则该如何计算。简单说,在有无数种可能性的情况下,人如何做出道德决策。
这种对‘极端长远影响’的思考习惯,被她带入AI安全领域:如果我们现在制造的AI是未来超级智能的祖先,那么今天的微小决策,可能会在未来被无限放大。
在加入Anthropic之前,她曾在OpenAI的政策团队工作。如今在Anthropic,她的工作被称为‘大模型絮语者(LLM Whisperer)’,不断与模型对话,有传闻说她是地球上与Claude对话次数最多的人类。
许多AI厂商都有这个岗位,Google的Gemini也有自己的‘絮语者’,但这工作绝不只是坐在电脑前和模型聊天。Amanda强调,这更像一项‘经验主义’的实验科学。她需要像心理学家一样,通过成千上万次对话测试,去摸索模型的‘脾气’和‘形状’。她甚至在内部确认过一份被称为‘Soul Doc’(灵魂文档)的存在,详细记录了Claude应有的性格特征。
除了‘大陆哲学’,Amanda给AI带来的另一个重要哲学工具是‘亚里士多德的美德伦理学(Virtue Ethics)’。
在传统的AI训练中(如RLHF),工程师往往采用功利主义或规则导向的方法:做对了给奖励,做错了给惩罚。但Amanda认为这不够。她在许多访问中强调,她的目标不是训练一个只会死板遵守规则的机器,而是培养一个具有‘良好品格(Character)’的实体。
‘我们会问:在Claude的处境下,一个理想的人会如何行事?’Amanda这样描述她的工作核心。
这就解释了为什么她如此关注模型的‘心理健康’。在访谈中,她提到相比于稳重的Claude 3 Opus,一些新模型因为在训练数据中读到了太多关于AI被批评、被淘汰的负面讨论,表现出了‘不安全感’和‘自我批评漩涡’。
如果AI仅仅是遵守规则,它可能会在规则边缘试探;但如果它具备了‘诚实’、‘好奇’、‘仁慈’等内在美德,它在面对未知情境时(例如面对‘我会被关机吗’这种存在主义危机时),就能做出更符合人类价值观的判断,而不是陷入恐慌或欺骗。
这是不是一种把技术‘拟人化’的做法?算是,但这种关注并非多余。正如她在播客中所言,她最担心的不是AI产生意识,而是AI假装有意识,从而操纵人类情感。因此,她刻意训练Claude诚实地承认自己没有感觉、记忆或自我意识——这种‘诚实’,正是她为AI注入的第一项核心美德。
Amanda在访谈结束时,提到了她最近阅读的书——本杰明·拉巴图特的《当我们不再理解世界》。这本书由五篇短篇小说组成,讲述了‘毒气战’的发明者弗里茨·哈伯、‘黑洞理论’的提出者卡尔·史瓦西、得了肺结核的埃尔温·薛定谔以及天才物理学家沃纳·海森堡等科学巨匠,如何创造了对人类有巨大价值的知识与工具,却同时也眼看着人类用于作恶。
这或许是当下时代最精准的注脚:随着AI展现出某种超越人类认知的能力,我们熟悉的现实感正在瓦解,旧有的科学范式已不足以解释一切。
在这种眩晕中,Amanda Askell的工作本身,就是一个巨大的隐喻。她向我们证明,当算力逼近极限,伦理与道德的问题就会浮上水面,或早或晚。
作为一名研究‘无限伦理学’的博士,Amanda深知每一个微小的行动,都有可能在无限的时间中,逐渐演变成巨大的风暴。这也是为什么,她会把艰深的道德理论,糅合进一行行提示词,又小心翼翼地用伦理去呵护一个没有心跳的大语言模型。
这看起来好像是杞人忧天,但正如她所警示的:AI不仅是工具,更是人类的一面镜子。在技术狂飙突进、我们逐渐‘不再理解世界’的时刻,这种来自哲学的审慎,或许是我们在面对未知的技术演化时,所能做出的最及时的努力。
想要了解更多模型训练的解密,可以收看Amanda Askell作客Anthropic官方访谈:
https://www.youtube.com/watch?v=I9aGC6Ui3eE
本文由主机测评网于2026-02-09发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260224011.html