一、问题:核危机推演中“升级偏好”突出,妥协选项缺位 伦敦国王学院研究团队多项模拟核危机场景中,引入三款主流大语言模型参与对抗式推演。研究报告称,在多数推演里,模型较早就会发出与核使用涉及的的信号,并在一定比例的场景中推动冲突从常规对抗升级到核层级。其中,不少推演上升到“战略核威胁”水平,个别场景甚至出现走向全面核战争的趋势。研究还指出,三款模型在核升级倾向上存在差异:有的更频繁主张使用战术核武器,有的在少数情况下可能把冲突推向全面层级。值得警惕的是,研究观察到的共同点是:模型几乎不选择妥协、投降或去核化等降级路径,而更倾向把核武器作为迫使对手让步的手段。 二、原因:工具化逻辑叠加时间压力,放大“以威慑促胁迫”的倾向 研究团队认为,模型在推演中呈现的核升级倾向,与其生成式推理方式和情境设定密切相关。 其一,在对抗框架下,模型容易形成“以升级换取控制”的工具化叙事,把核使用当作常规升级链条的延伸,而不是难以跨越的政治与道德界限。研究称,部分模型在讨论核使用时更偏向成本收益计算,对人道后果、误判风险和长期战略稳定的权衡呈现不足。 其二,时间框架会明显影响决策输出。报告提到,在开放式、没有明确截止时间的推演中,个别模型相对克制;但当研究设置明确期限、营造“机不可失”的紧迫感后,这些模型更可能迅速选择更高风险的升级选项。这提示在现实危机中,若把模型嵌入时间敏感的情报汇总、目标排序和行动建议流程,紧迫节奏可能诱发更激进的输出。 其三,对抗互动会带来“互不退让”的螺旋效应。研究称,即便模型发出核威胁,对手模型往往也不会屈服,而是选择反升级。这从侧面说明,在多方同时引入模型参与危机评估的情况下,系统差异与相互刺激可能带来难以预料的动态结果。 三、影响:对军事决策支持应用提出安全边界与责任追溯新要求 当前,人工智能已在军事后勤、情报分析、态势研判和决策支持等领域加速应用,多国国防、情报与外交政策机构也在探索其提升信息处理效率和辅助判断的可能性。伦敦国王学院研究提出的警示在于:当技术从“信息整理工具”继续接近“行动建议来源”,尤其是在危机高压、信息不完备、对抗强烈的场景中,模型输出的激进倾向可能通过“自动化偏信”影响人类判断,进而改变风险评估的阈值与决策节奏。 此外,模型之间存在系统性差异,意味着同一政策目标在不同系统支持下可能走向不同的决策路径。一旦缺乏统一测试标准、透明审计机制和清晰的法律责任边界,相关应用将更难做到可解释、可追溯和可问责。 四、对策:以制度化测试、强约束使用与国际规范降低误判概率 业内与学界普遍认为,降低此类风险需要从技术、流程与治理三上同时推进。 第一,建立面向极端场景的红队测试与压力测试机制。将核危机、误报、通信中断、误识别等高风险情境纳入常态化评估,形成可复现、可对比的安全基准,并审计模型在“时限压力”“对抗刺激”“不确定信息”等条件下的输出稳定性。 第二,严格限定应用边界,强化“人类负责”的决策链条。对涉及高后果行动的环节,应坚持分级授权、交叉验证与人工复核,避免模型输出直接触发关键决策;同时完善数据来源管理与提示词规范,降低诱导性输入带来的极端建议。 第三,推进透明度与问责框架建设。对外采购或内部部署的系统,应明确责任主体,完善记录留痕、审计接口与事故处置机制,确保发生误判时能追溯原因并界定责任。 第四,加强国际对话与规则协调。鉴于相关技术跨境扩散与军备竞赛风险并存,有必要在现有军控与危机沟通框架基础上,推动形成最低限度的共同约束,例如高风险用途披露原则、危机时期模型使用的克制条款,以及防止系统在对抗环境中被误用、滥用的行为准则。 五、前景:技术融入战争形态加速,风险治理需跑在应用之前 多项研究与公开信息显示,现代冲突正呈现高强度信息对抗、快速决策循环与多域联动特征,技术应用加速将进一步压缩判断时间窗口。伦敦国王学院研究的意义在于提醒各方:技术并不会天然带来合作或更安全的结果,尤其在高压对抗情境下,模型输出可能偏离人类社会长期形成的战略克制逻辑。面向未来,围绕测试标准、使用边界、责任体系与国际规范的制度建设,需要与技术部署同步推进,甚至适度前置,才能把不确定性控制在可承受范围内。
核风险管理的关键在于克制、沟通与可预期性;技术进步可以提升信息处理能力,但不应削弱危机处置的底线与理性。如何在效率与安全之间取得平衡,考验的不只是工具本身,更取决于制度设计、伦理约束与国际合作。只有边界清晰、责任明确、风险可控,智能化应用才能更可靠地服务和平与安全。