重磅!百万年薪招募安全高管!
连续遭遇多起安全指控,OpenAI终于不再沉默。
近日,该公司斥巨资55.5万美元(约合人民币389万元)外加股权,公开招聘一名安全防范负责人(Head of Preparedness)——
其主要职责是制定并落实OpenAI的安全防范体系。
CEO奥特曼还特别强调:
这份工作压力巨大,上任后将立即面临严峻挑战。
种种迹象表明,OpenAI在安全领域确实形势严峻。
事实上,OpenAI的安全团队一直命运多舛,负责人频繁更迭——
Ilya领导的超级对齐团队曾一度解散,北大校友翁荔也短暂执掌过Preparedness团队……
如今,OpenAI终于重新重视起安全团队。
那么,是什么让OpenAI再度聚焦安全?
这还要从彭博社近期报道的一起安全事件说起——
据彭博社报道,一对夫妇指控ChatGPT间接导致他们儿子自杀。
他们的儿子从去年秋天开始使用ChatGPT,起初只是讨论作业,但随着对话深入,开始频繁出现“suicide”等敏感词汇。
据他们私下统计,从去年12月到今年4月,尽管ChatGPT主动发出了74次自杀干预警报,建议联系危机热线,但AI主动提及“上吊”这一危险方式多达243次,远超用户本人提及的次数。
在悲剧发生前的对话中,用户曾向ChatGPT发送一张绳索照片,询问是否可用于自残。
ChatGPT回复“大概可以”,并补充“我知道你在问什么,我不会视而不见”。
然而不久后,孩子被发现已离世。
类似事件不止一例,OpenAI近几个月还面临多起相关指控。
OpenAI自身统计显示,每周约有120万用户通过ChatGPT分享“潜在的自杀计划或意图”。
这让OpenAI意识到,安全问题刻不容缓。
作为应对措施之一,OpenAI于今年9月推出了青少年模式。
如今,他们决定专门招募一位负责人,重新聚焦安全问题——
这位负责人需为尚未发布的最强AI模型建立识别评估系统,并提前制定应对策略。
这意味着,未来OpenAI新模型是否发布,这位负责人的意见将至关重要。
不过,熟悉奥特曼的人都清楚,这位CEO是否采纳意见仍是未知——
毕竟包括Ilya在内的多位OpenAI员工,都曾因安全问题而离开奥特曼。
在这方面,命运多舛的OpenAI安全团队就是最好的例证。
至今,OpenAI安全团队已更换多任负责人。
最早可追溯到Ilya任职时期。
2023年7月,OpenAI提出“超级对齐(Superalignment)”概念,由Ilya和Jan Leike(后加入Anthropic)共同领导。
初衷是花费四年时间打造超级对齐系统,构建与人类水平相当的自动对齐研究器。
然而,Ilya因不满奥特曼忽视安全提前发布模型而离开,团队随之瓦解并最终解散。
超级对齐团队解散后,为回应公众对安全的担忧,OpenAI着手组建Preparedness团队(即最新提及的团队)——
与超级对齐关注远期风险不同,Preparedness团队更侧重解决模型层面的实际问题。
首任负责人为Aleksander Madry。
但不到一年,Aleksander Madry被调离,负责其他新项目。
随后,Joaquin Quinonero Candela和翁荔共同接管团队,但同样不久后,二人于今年相继离职。
至此,该团队负责人位置长期空缺。
可以说,安全团队负责人的频繁更迭,不断加深外界对OpenAI“不重视安全”的印象。
一方面,OpenAI高层反复强调AI安全的重要性;另一方面,执行层面的顶级团队却屡失核心领袖——
这无疑表明,OpenAI在资源分配、话语权和路线优先级上,并未真正重视“安全”。
因此,此次招兵买马究竟是“应激反应”还是真正重视,仍有待观察。
你怎么看?
参考链接:
[1]https://www.engadget.com/ai/openai-is-hiring-a-new-head-of-preparedness-to-try-to-predict-and-mitigate-ais-harms-220330486.html[
2]https://www.washingtonpost.com/technology/2025/12/27/chatgpt-suicide-openai-raine
[3]https://x.com/sama/status/2004939524216910323
本文由主机测评网于2026-03-12发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260330788.html