当前位置:首页 > 科技资讯 > 正文

OpenAI豪掷400万招募‘末日主管’,为AI安全构筑防线

奥特曼豪掷400万年薪,为OpenAI寻求一份「安全保单」!

日前,奥特曼在社交媒体上发帖,宣布为OpenAI招募一位「准备工作负责人(Head of Preparedness)」。

55.5万美元年薪,外加股权,折算成人民币大约400万元起。

OpenAI豪掷400万招募‘末日主管’,为AI安全构筑防线 OpenAI AI安全 奥特曼 风险管控 第1张

在硅谷,「55.5万美元基础年薪+股权」的组合极为罕见,属于高底薪高管职位,底薪越高,通常意味着岗位稀缺性越大、责任边界更宽。

尽管OpenAI未披露股权规模,但该岗位的总薪酬包可能达到百万美元级别。

与高薪相匹配的是极具挑战性的工作职责。

奥特曼为这一岗位定下的基调是「充满压力」「必须立刻进入深水区」:

这将是压力巨大的工作,而且几乎一上任就要直面最棘手的问题。

关键时刻的关键角色

这份工作更像是一位「救火队长」,甚至可称为「末日主管」。

其目标并非让模型更智能,而是为日益强大的模型设置「安全护栏」,有效管控伴随而来的风险。

用奥特曼的话说,这是一个「关键时刻的关键角色」,模型正快速进化,能完成许多令人惊叹的任务,但也开始带来「真实的挑战」。

他在招聘帖中特别指出了过去一年发现的两大问题:

模型对心理健康的潜在影响;

模型在计算机安全领域迈入新阶段,已能够发现「高危漏洞」。

奥特曼强调,我们在衡量能力增长方面已有坚实基础,但接下来的挑战是如何防止这些能力被滥用,如何在产品及现实世界中最大限度降低负面影响,同时让人们继续享受其带来的巨大益处。

他认为这是一个几乎无先例的巨大难题,需要进入一个「更精细理解和更细致度量」的世界。

许多听起来不错的想法,在实际应用中总会遇到棘手的例外和边界情况。

因此,新招募的「准备工作负责人」的职责,是在模型能力持续发展且应用不扩大的前提下,构建一道安全防线:

如何用最前沿的能力武装网络安全防守方,同时确保攻击者无法利用这些能力作恶。

奥特曼也为这份工作设定了目标:

最理想的情况,是通过让所有系统变得更安全来实现,例如更安全地发布生物领域的AI能力,以及提升对自我改进系统安全运行的信心。

模型变强

风险也更加「硬核」

过去我们谈论AI风险,常像发布天气预报:可能下雨,最好带伞。

随着大模型能力的提升和技术的快速渗透,当前的AI风险更像乌云压城:雨已落下,风向还在变化。

一方面,模型能力更强了。

奥特曼提到一个标志性变化:

模型在计算机安全方面进入新阶段,「开始能发现关键漏洞」。

这句话令人细思极恐——当模型能帮你找漏洞,它同样可能帮别人找漏洞。

正所谓道高一尺,魔高一丈。

另一方面,模型技术的普及也带来了更多「硬风险」,2025年已现端倪。

例如,模型对心理健康的潜在影响。

进入2025年,我们看到了许多关于「AI精神病」的报道:

有人将与机器人聊天作为心理治疗的替代方案,但在某些情况下,这会加剧心理健康问题,助长妄想等令人担忧的行为。

今年10月,OpenAI曾表示正与心理健康专业人士合作,改进ChatGPT对出现精神错乱或自残等令人担忧行为的用户的回应方式。

不止心理健康,还有报道指出ChatGPT在法律文件中产生幻觉,引发大量投诉。

此外,ChatGPT、Sora等应用产品上线后,也带来了一系列诸如深度伪造及社会伦理等方面的挑战。

OpenAI豪掷400万招募‘末日主管’,为AI安全构筑防线 OpenAI AI安全 奥特曼 风险管控 第2张

比如,Sora曾在2025年10月因用户生成「不尊重」内容而暂停/封禁对马丁·路德·金相关视频的生成,并同步加强历史人物肖像相关的护栏与退出机制。

因此,奥特曼要求这份工作将安全从能力评估、威胁建模、缓解措施整合成一条可落地的链条,形成一个「连贯、严谨且可操作、可扩展的安全流程」。

填补「安全空心化」的焦虑

此次招聘,更像是对OpenAI安全团队的紧急补位与强化。

OpenAI的核心使命是以造福全人类的方式开发人工智能,自创立之初就将安全协议作为运营的核心部分。

然而,一些前员工表示,随着OpenAI开始发布产品并面临盈利压力,公司开始将利润置于安全之上。

一个标志性事件是「超级对齐」团队的解散。

OpenAI豪掷400万招募‘末日主管’,为AI安全构筑防线 OpenAI AI安全 奥特曼 风险管控 第3张

2024年5月,OpenAI「超级对齐」团队解散,其工作将被并入其他研究领域。

OpenAI豪掷400万招募‘末日主管’,为AI安全构筑防线 OpenAI AI安全 奥特曼 风险管控 第4张

超级对齐团队的两位共同负责人Ilya Sutskever、Jan Leike也相继离开,其中Leike在离职时尖锐批评公司,称其已迷失确保技术安全部署的使命:

「构建比人类更聪明的机器本身就是一项危险的尝试……但在过去几年里,安全文化和流程已让位于光鲜亮丽的产品」。

Leike表示OpenAI未能投入足够的计算资源研究如何引导和控制那些远比我们聪明的人工智能系统。

另一名前员工Daniel Kokotajlo也表示,他辞职是因为「对公司在通用人工智能出现时能否负责任地行事逐渐失去信心」。

OpenAI豪掷400万招募‘末日主管’,为AI安全构筑防线 OpenAI AI安全 奥特曼 风险管控 第5张

当时奥特曼就Leike的发帖回应,承认他说得对:「我们还有很多事情要做;我们承诺会去做」。

OpenAI联合创始人兼总裁Greg Brockman也声称公司愿意因安全问题推迟产品发布:

「首次弄清楚如何让一项新技术变得安全并非易事,我们既相信要实现巨大的潜在收益,也致力于努力降低重大风险」。

在超级对齐团队解散约两个月后,7月AI安全负责人Aleksander Madry被调岗。

OpenAI豪掷400万招募‘末日主管’,为AI安全构筑防线 OpenAI AI安全 奥特曼 风险管控 第6张

OpenAI原AI安全负责人Aleksander Madry

10月23日,OpenAI长期政策研究人员、AGI readiness团队高级顾问Miles Brundage离开OpenAI。

随着Brundage离开,AGI readiness的子团队economic research division将转至新任首席经济学家Ronnie Chatterji麾下,其余部分则分散到其他部门。

Kokotajlo曾表示,「OpenAI最初约有30人研究与通用人工智能相关的安全问题,一系列离职使得这一人数减少了近一半」。

安全团队的负责人及员工离职、调岗,项目被不断分拆、重组,由此带来的「安全空心化」焦虑,正是此次奥特曼高调招聘的大背景。

当「前沿模型」的能力逼近更高边界时,谷歌、Anthropic、OpenAI、xAI等大模型厂商在AI军备竞赛中,都要解决同一个问题:如何在加速中不失控?

而此次招募的「准备工作负责人」的工作,则是要把不断变强的模型,在现实使用场景中转化为一个能评估、能落地、能迭代的「可执行的安全管线」。

当AI竞赛进入紧要关头,能够守住安全底线才是不败的关键。

参考资料:

https://www.businessinsider.com/openai-hiring-head-of-preparedness-ai-job-2025-12