当前位置:首页 > 科技资讯 > 正文

字节跳动打响AI军纪整顿第一枪:泄密研究员被开除事件分析

11月12日,字节跳动发布的一则人事变动消息,迅速在科技行业掀起波澜。

据悉,字节跳动大模型团队(Seed)的研究员任某某,因泄露公司机密被正式开除。澎湃新闻、证券时报等多家媒体确认,任某某已于11月11日办理离职手续,距离公司通报仅一天之隔。

任某某专精于机器人系统集成,在知乎平台拥有8.6万粉丝,曾公开表示自己深入参与了字节机器人操作大模型GR-3的开发工作。

此事的影响远超一般人事处分——这是国内大型科技公司首次因泄密事件解雇AI核心研发人员,也标志着字节跳动率先开启了大厂内部“AI军纪”整顿的序幕。

整顿AI军纪第一枪

根据任某某在知乎账号公开的资料,他于2015年从浙江大学机电工程专业毕业,2019年在意大利取得机器人学博士学位,之后回国投身机器人领域。

字节跳动打响AI军纪整顿第一枪:泄密研究员被开除事件分析 AI泄密  字节跳动 硅谷诉讼 大模型竞争 第1张

来源:知乎

在加入字节跳动前,任某某曾在山东机器人公司珞石科技担任机电工程师,随后入职小米公司,担任高级研发工程师。2023年,他跳槽至字节跳动Seed团队,专注机器人系统集成研究。

在字节工作期间,他迅速接触到新一代Vision-Language-Action(VLA)模型——GR-3项目。今年7月,他曾对外详细阐述该项目的技术原理。

但据大皖新闻11月17日报道,接近字节的知情人士透露,任某某的泄密行为源于多次接受咨询机构的付费访谈,泄露商业机密,与此前在知乎的技术分享无关。

事实上,字节跳动对信息安全的重视早已显现。今年9月,字节跳动企业纪律与职业道德委员会发布第二季度员工违规处理情况,100名员工因触及公司红线被辞退。

通报中强调,有10名员工因违规参与外部付费访谈、泄露公司保密信息而受罚。字节特别提醒员工,对外部咨询公司以“专家访谈”“行业研究”等名义进行的有偿邀约需保持警惕,防止机密泄露。

从任某某事件的处理可见,字节跳动在AI领域的信息保密机制日益系统化,对泄密事件的容忍度持续降低。对于触碰红线的行为,字节立场坚定:绝不宽容。

类似因员工泄密被开除的案例,在其他大型科技公司也时有发生。

今年9月,小米中国区市场部总经理王腾被辞退。小米集团职业道德委员会通报指出:“(王腾)泄露公司机密信息,并存在利益冲突等严重违规违纪行为。”虽未公开具体泄露内容,但足以显示小米对信息安全的严格态度。

米哈游在同月宣布,对泄露《原神》《崩坏:星穹铁道》未公开内容的泄密者采取刑事强制措施,并对多名参与“解包”的人员申请诉中行为禁令,要求立即停止侵权行为。

各大科技公司历来高度重视内部信息安全。据澎湃新闻报道,阿里巴巴在2016年发布的《员工纪律制度》中明文规定,“任何非对外公开信息”均属保密范围,员工一旦泄露,无论后果如何,都将被辞退。

甚至公司内网信息也禁止外泄。2021年8月,第一财经援引彭博社消息称,阿里巴巴将开除泄露内网文章的10名员工,但阿里对此未予回应。

泄密情节严重者还可能涉及法律问题。2025年1月16日,腾讯集团发布“反舞弊通报”,公开点名21人,其中包括S3-CSIG人力资源中心方某,因向外部人员泄露公司内部保密信息,涉嫌犯罪被移送公安机关,腾讯已将其列入黑名单,永不录用。

目前,大型公司虽较少公开针对AI的保密制度,但在2025年这一技术飞跃期,关键技术及模型细节已成为核心竞争力,其安全重要性不言而喻。

字节跳动首次因泄密开除AI高级研发人员,标志着国内大厂正式拉开了整顿“AI军纪”的序幕。

硅谷大厂是如何应对的?

在全球AI竞争最白热化的硅谷,各大科技公司早已将信息安全作为核心防线,对泄密行为高度敏感,并建立了较为成熟、系统化的AI保密与应对体系。

对于核心技术,包括模型架构、训练数据、算法细节、推理框架、硬件优化方案或部署策略等关键信息泄密事件,硅谷公司普遍采取零容忍态度,一旦发现员工泄密,轻则开除,重则——

直接诉诸法律。

今年备受关注的案例之一是马斯克旗下xAI起诉前核心工程师李学宸。李学宸是华人,他从xAI离职并套现约700万美元股票后,立即加入了OpenAI。

8月,xAI向加州联邦法院提起诉讼,指控这位曾深度参与Grok聊天机器人训练与开发的工程师,在离职前秘密拷贝公司核心商业机密——从模型源代码、训练数据,到未来数年的技术路线图,几乎涵盖了大模型的关键要素。

此案目前处于初步诉讼阶段,但法院已对李学宸下达临时禁止令,禁止他在OpenAI参与任何与生成式AI技术相关的工作或交流。

这起事件被媒体称为今年最“戏剧性”的商战案例——顶级工程师跳槽至直接竞争对手、离职前涉嫌窃取大模型机密、临走前套现巨额股票,集齐了硅谷最敏感、最富戏剧性的元素。

今年10月,大数据分析公司Palantir也爆出一桩重大“AI商战案”。公司将两名前资深AI工程师告上纽约联邦法院,指控他们在离职前擅自访问并带走了Palantir的“核心资产”——包括核心算法源码、模型架构,以及涉及政府与大型企业客户的数据资产。

更富戏剧性的是,这两人随后创立了名为Percepta AI的新公司,被Palantir视为“竞争产品”,几乎正面交锋。Palantir的诉求极为强硬:禁止新公司使用相关技术,并索要巨额赔偿。

当前如日中天的英伟达,也因泄密事件成为被告。2021年,法雷奥(Valeo)的一名前工程师跳槽至英伟达后,在一次视频会议中意外泄露了法雷奥的智能泊车和高级驾驶辅助系统源代码及相关文档。

法雷奥随后提起诉讼,指控英伟达利用被泄露的技术加速自身研发,并要求巨额赔偿。据报道,该工程师曾复制约27,000个文件、6GB代码,涵盖传感器融合、泊车任务、紧急刹车等核心模块。

目前,案件仍在美国加州联邦法院审理中,法院认为有足够间接证据支持法雷奥的指控。但英伟达否认故意利用对方商业秘密,并称发现问题后已进行内部调查和清理。

无论是李学宸案、Palantir案还是英伟达案,其本质都是生成式AI军备竞赛中的技术争夺——一旦算法、数据和核心人才三条战线被突破,对企业而言犹如根基被毁,自然无法容忍。

一些公司甚至对发表不当言论的员工也会直接开除。2022年,公开声称谷歌大模型LaMDA对话式人工智能具有感知能力的工程师Blake Lemoine,就因触碰公司禁忌而被追责。

他关于“AI已拥有人类般情感和灵魂”的言论引发行业广泛讨论,有人认为他对AI潜在“感知”能力的揭示预示未来风险,也有人批评其结论为主观臆测。

但谷歌毫不留情,立即以“违反保密协议”为由将其解雇。谷歌发言人在给媒体的邮件中证实了此次解雇:“我们希望Lemoine一切顺利。”

保密,是生存底线

或许有人认为,硅谷对员工泄密的反应过于严厉?

但在许多公司高管看来,当前对泄密的处罚仍显不足。

在大模型竞赛中,每次关键迭代都伴随巨额投入。一旦核心技术或训练数据泄露,对企业而言不仅是财务损失,更可能侵蚀技术护城河,引发灾难性后果。

例如,GPT-4的训练成本被科技媒体和研究机构估算为约7800万美元;而谷歌的Gemini Ultra,据多家分析报告推算,其单次训练成本甚至高达1.91亿美元。

arXiv上的论文《前沿AI模型训练成本持续上涨》(The rising costs of training frontier AI models)进一步指出,前沿模型的训练费用正以近乎指数级速度增长,按此趋势估算,到2027年,训练一次顶级模型的成本可能突破10亿美元。

在此背景下,马斯克对李学宸泄密事件的愤怒便不难理解。

Grok是xAI的王牌,也是马斯克押注未来的核心资产。今年7月发布的Grok 4,被他誉为“世界上最聪明的人工智能”,并声称在综合能力上已超越包括OpenAI o3、Gemini 2.5 Pro、Claude 4在内的主流顶级模型。

更重要的是,xAI在诉状中明确指出:如果泄露的Grok相关技术被竞争对手(如OpenAI)采用,对方可能获得“压倒性优势”。换言之,这并非普通信息泄露,而是可能让竞争对手跳过数年研发周期,从而重塑行业格局,对xAI造成毁灭性打击。

因此,保密事关存亡,在AI军备竞赛中是“基本纪律”。

一方面,AI技术本身具有极高敏感性。模型架构、训练数据、优化算法等核心资产均为“纯数字化”,无需硬件即可拷贝、外传。一旦泄露,复制成本几近于零,而竞争损害却几乎不可逆转。

李学宸案、Palantir案及英伟达–法雷奥案最终诉诸法律,正是因为相关企业评估认为:泄密可能带来的损失难以承受——甚至动摇公司核心根基,因此只能通过法律手段尽力阻断影响、减轻损害。

另一方面,人才流动正加剧泄密风险。从上述硅谷诉讼案可见,几乎所有泄密事件都源于人员变动——工程师离职、跳槽甚至跨界合作,都可能成为技术外泄的漏洞。这也推动各公司将“离职环节风险管控”提至前所未有的高度。

随着国内大模型竞争全面加速,AI竞争进入深水区,中国科技公司必将向硅谷看齐:保密不是可选项,而是生存底线。