美国政府与Anthropic公司的分歧源于对AI技术使用权限的根本性认识差异。
据报道,美国国防部与Anthropic在2026年初的合同谈判中,要求增加一项条款,允许五角大楼为任何合法目的使用其AI技术。
然而Anthropic基于自身的使用政策予以拒绝,这一分歧最终演变为政府层面的强硬回应。
美国司法部在法庭文件中明确表示,Anthropic的服务条款已被行政部门视为"不可接受",并以国家安全风险为由启动了清除程序。
这场争端的深层原因在于对AI系统风险的不同评估。
美国司法部律师在法庭文件中指出,AI系统极易受到操控,若Anthropic自行判断其"红线"被逾越,有可能在作战行动之前或期间试图禁用其技术或改变模型行为。
这种担忧反映了军方对第三方AI供应商可控性的质疑。
美国国防部长赫格塞思在社交媒体上表示,美国军方将在六个月内完成向"更好、更具爱国精神的服务商"的过渡,这一表述暗示政府对Anthropic的信任度已严重下降。
从Anthropic的角度看,该公司对其AI产品的使用施加限制,源于对潜在风险的防范。
公司曾要求政府保证其AI不会被用于对美国民众进行大规模监控或部署自主武器。
这些限制条件虽然出于技术伦理考量,但在国防部看来,却构成了对军事行动的不必要约束。
Anthropic已向法院申请初步禁制令,试图在诉讼期间阻止政府的禁令生效,同时警告称旷日持久的法律战可能导致其损失数十亿美元收入。
这一事件的影响范围超越了单一企业的商业利益。
它反映了美国政府在AI技术国家安全战略上的新态度——在特朗普政府的指示下,五角大楼及其他联邦机构正将AI业务转移给其他供应商,这一举措基于通常针对外国公司的风险认定框架。
这意味着即使是美国本土企业,如果其政策与政府需求不符,也可能被纳入供应链风险范畴。
从前景看,这场争端可能重塑美国AI产业的生态格局。
政府对AI企业的强硬态度表明,国家安全考量将在AI技术的商业应用中占据优先地位。
对于其他AI企业而言,如何在维持技术伦理底线与满足政府需求之间找到平衡,成为了一个紧迫课题。
同时,这也可能促使美国政府加快扶持符合其战略需求的AI供应商,形成更加集中的产业格局。
围绕技术条款的争执表面上是合同分歧,实质是安全治理逻辑与商业规则体系的碰撞:一端强调关键任务必须“随时可用、稳定可控”,另一端强调用途边界与风险底线不可失守。
无论诉讼结果如何,此案都提示各方,只有把规则写得更明确、把责任划分得更可核验、把替代机制建设得更完善,才能在安全与发展之间形成更可持续的制度安排。