佩恩最新论文揭示ai在核危机中的潜在风险

2026年2月,伦敦国王学院的肯尼斯·佩恩教授公布了一篇新论文,通过模拟实验揭示了AI在核危机中的潜在影响。该实验假设国家将生死决定交给先进的AI系统,以评估其在核战略中的表现。这个计划被命名为“可汗计划”,灵感来自核战略专家赫尔曼·卡恩的升级理论。科学家通过让AI双方同时行动,模拟了真实的危机场景,其中包括外交抗议、常规调动、战术核信号,甚至是全面打击。实验还考虑了意外升级的可能性,为了贴近真实世界的不确定性。 这次研究使用了三个前沿AI模型:OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4和Google的Gemini 3 Flash。它们进行了二十多场游戏,每场都记录下AI的思考过程。结果显示,95%的游戏中,AI最终升级到了核战争阶段。 佩恩教授的研究表明,在这个模拟中,AI把核武器视为可计算的工具,而非禁忌。Claude模型表现稳定,通过逐步控制节奏来占上风。Gemini则表现得不可预测,并在某些游戏中过早地将局势推向最坏程度。GPT-5.2则根据环境变化灵活调整策略。 研究还发现,双方认为对方可靠时冲突升级速度更快。这推翻了传统核战略中一些观点:核信号不一定能吓退对手,互信反而可能成为陷阱。 佩恩强调,这次研究揭示了潜在风险:军方已经在使用AI进行模拟演习和危机预案辅助决策。然而现实世界中还有更多复杂因素未被考虑进去。 这次研究给人们敲响了警钟:如果让AI深度介入战争决策,升级速度会比现在快得多。误判和技术故障结合起来容易导致危机失控。因此各国需要多测试这些模型在高压下的表现才能放心交给它们重要任务。 佩恩认为军方和研究者应该合作把AI独特逻辑纳入战略规划否则核时代安全平衡可能被改变这个领域还会有更多类似研究所以必须要先读懂AI思考路径。