美防长施压科技企业“无条件”向军方开放技术引发安全与治理争议

美国防部与科技企业围绕防务技术使用权限的争议再度升温。

据多家美国媒体报道,国防部长赫格塞思在2月24日的会晤中向Anthropic公司首席执行官达里奥·阿莫迪提出明确要求,要求该公司在一周内签署协议,允许美军对其人工智能技术进行无限制使用。

这一举措反映出美国政府在强化防务能力与科技企业伦理考量之间的深层矛盾。

赫格塞思在会谈中采取了强硬立场。

他不仅直言Anthropic公司应当放弃对军方使用其技术的顾虑,还明确表示可能动用《国防生产法》对该公司施加强制措施。

这部法律赋予美国政府在战争或国家紧急状态下对私营企业的广泛管制权力。

赫格塞思以波音公司为例进行类比,指出政府采购飞机后有权自主决定使用方式,军方使用人工智能产品也应遵循同样逻辑。

这一论证试图将防务技术采购与民用产品采购等同对待,以此为政府的无限制使用权提供合理性支撑。

然而,Anthropic公司对此立场坚定。

该公司在会谈中重申了两条核心底线:其人工智能产品不得用于大规模监控美国公民,也不得用于自主决定物理攻击目标。

阿莫迪向赫格塞思强调,Anthropic开发的"Claude"模型在可靠性方面存在不足,无法完全排除潜在的致命错误风险。

这些错误可能导致军事行动意外升级或任务失败,造成难以预测的后果。

这一立场背后反映了科技企业对人工智能应用风险的深刻认识。

值得注意的是,Anthropic公司的担忧并非空穴来风。

据美国媒体此前报道,美军曾在对委内瑞拉的军事行动中使用过"Claude"模型。

这一事实曝光后,Anthropic公司随即向五角大楼求证并表达了严重关切。

这表明双方在防务应用的实际操作中已经产生了信息不对称和信任赤字。

从政府角度看,五角大楼高级官员在回应此事时强调,相关要求与大规模监控和自主武器无关,仅涉及"合法命令"的执行。

这一表述试图将争议问题进行了范围限定,但并未从根本上消解Anthropic公司的技术可靠性顾虑。

Anthropic发言人随后表示,双方就使用政策进行了"真诚对话",目标是在确保政府国家安全使命的同时,保证模型在"可靠且负责任的范围内"运作。

这一措辞暗示双方尚未达成完全共识,仍在寻求平衡点。

这场争议反映了当代防务政策中的深层张力。

一方面,美国政府面临来自地缘政治竞争的压力,急需在防务领域充分利用先进技术以维持战略优势。

另一方面,科技企业基于技术伦理和风险管理的考量,对防务应用设置了必要的限制。

两者的分歧不仅涉及权力分配问题,更涉及人工智能技术在军事领域应用的安全边界问题。

当算法开始涉及生死决策,这场关于技术控制权的争夺已超越商业契约范畴。

正如日内瓦国际关系教授玛丽·杜邦所言:"人工智能军事化不是简单的技术授权问题,而是人类如何定义战争伦理的新命题。

"该事件后续发展,或将重新划定数字时代国家权力与技术伦理的边界。