2024年5月,前OpenAI安全团队联合负责人Jan Leike离职,他在离职声明中直言是出于“安全担忧”,并最终选择加入Anthropic。同月,翁荔离开OpenAI安全系统团队。2024年11月,Andrea Vallone也离开了她的心理健康安全岗位。Andrea和她的两位同事都是在同一个安全方向上投奔了Anthropic。到了2026年1月,OpenAI再次流失了一位心理健康安全负责人Andrea Vallone,她同样选择了去Anthropic的对齐团队。这三个人在同一方向上流向同一家公司,绝不是简单的巧合。 根据SignalFire的数据显示,从OpenAI跳槽到Anthropic的工程师概率是反方向流动的8倍,而从DeepMind流向Anthropic的比例更是夸张到了11比1。在这种情况下,Anthropic留住了80%的顶尖AI安全人才,而OpenAI仅保住了67%的人。这样的差距在人员流动频繁的AI行业里显得相当突出。特别是Anthropic吸引的并非普通工程师,而是对AI走向有坚定信念的安全领域人才。 OpenAI在2025年8月与Anthropic展开了一次罕见的跨实验室安全测试合作。尽管两家公司在商业和监管上存在利益分歧,但它们还是坐到了一起讨论安全问题。这表明双方都意识到某些问题已经超越了竞争本身。这次合作反映了一个重要信号:大模型能力边界扩大后带来的风险问题并非某一家公司的私事。 AI安全从边缘议题变成核心战略的转变过程中,人才争夺成为关键一环。55.5万美元的高薪岗位固然能吸引眼球,但它并非唯一的决定因素。Anthropic之所以能留住80%的顶尖人才,关键在于其创始团队基因中的安全路线分歧。这种基因决定了公司的决策倾向和招聘策略——愿意来的人往往已经认同这条路。 2025年8月的跨实验室合作证明了AI安全需要跨机构协作而非妥协。对于那些离开OpenAI的人来说,他们更像是在用脚投票——选择那个他们认为更有可能把事情做对的地方。至于55.5万美元的岗位最终花落谁家目前尚无定论。但可以确定的是:愿意在AI安全方向压注的人会越来越贵;那些靠文化留人、提前布局的公司赢得了时间窗口。