据外媒报道,美国国防部长赫格塞思24日与人工智能企业Anthropic首席执行官达里奥·阿莫迪举行会谈,以国家安全为由要求该公司在27日前达成协议,允许军方不受限制地使用其人工智能模型,否则将面临严厉制裁措施。
五角大楼方面透露,若Anthropic拒绝配合,将被列为供应链风险企业,从而失去价值2亿美元的政府合同。
这一做法通常仅针对与外国对手存在关联的企业,若应用于本土科技公司尚属首次。
与此同时,国防部已要求波音和洛克希德·马丁两家军工企业评估对Anthropic旗下克劳德模型的依赖程度,并威胁动用国防生产法强制该公司履行国防合同。
矛盾的核心在于技术应用边界的界定。
Anthropic方面担忧其技术可能被用于开发全自动武器系统或大规模监控项目,多次要求在使用过程中设立安全防护机制。
阿莫迪在会谈中明确提出两条底线:不得将相关技术用于自主杀伤性武器研发,不得用于针对本国公民的大规模监控活动。
然而五角大楼坚持认为,政府采购产品后的使用方式不应受到供应商干涉。
赫格塞思以波音飞机为例,强调军方购买装备后拥有完全使用自主权,人工智能产品也应遵循同样原则。
这一立场反映出当前美国政府在人工智能军事应用上的激进态度。
值得注意的是,Anthropic是去年夏天获得国防部合同的四家人工智能企业之一,也是首家获准进入军方机密系统的公司。
其克劳德模型因技术先进性和安全性被视为敏感军事领域的首选工具,目前是唯一在军方机密系统中运行的人工智能模型。
据悉该模型已在上月针对委内瑞拉的军事行动中投入使用,引发企业方面的担忧。
相比之下,OpenAI、谷歌、马斯克旗下的xAI等企业均已同意政府在任何合法场景中使用其技术。
Anthropic成为唯一尚未完全向军方开放的企业,这与其创始人的理念密切相关。
阿莫迪自2021年创立该公司以来,一直倡导对人工智能实施更严格的安全标准和负责任的开发原则。
这场博弈的背后是美国政府与部分科技企业在人工智能监管理念上的根本分歧。
特朗普政府倾向于采取宽松的监管政策,认为过度限制将削弱美国在全球人工智能竞争中的优势地位。
国防部的强硬态度显示出其希望加速将人工智能技术融入军事体系各个层面的战略意图。
五角大楼官员透露,虽然正在寻求对Anthropic的惩罚措施,但也担心失去克劳德模型使用权后可能面临的技术空白。
目前国防部已接触其他企业寻求替代方案,马斯克的xAI本周获准将其模型应用于军方机密环境,但能否完全替代尚不明确。
分析人士指出,这一事件不仅是单纯的商业纠纷,更折射出人工智能技术快速发展背景下,技术伦理、国家安全与商业利益之间复杂的平衡难题。
如何在推进技术军事化应用的同时,建立有效的安全防护机制和伦理约束,已成为各国面临的共同挑战。
人工智能进入军事领域已是现实议题,但“速度”不应替代“规则”。
当技术能力被迅速推向高风险场景,真正决定安全与秩序的,往往不是模型参数本身,而是边界是否清晰、权责是否对等、监督是否到位。
围绕本次争议的博弈,实质上是一场关于未来战争形态与技术治理方式的提前交锋,其走向值得持续观察。