问题:禁用决定引发“互告”格局,军用AI边界争议公开化。 据美国媒体披露,Anthropic公司9日对美国国防部等联邦部门提起诉讼,质疑五角大楼将其列为“供应链风险”对象的决定违法,并称涉及的做法侵犯其宪法权利。美国国防部5日宣布,禁止国防部及防务承包商相关项目中使用该公司人工智能技术。此前,美国总统特朗普亦要求联邦政府机构禁用该公司产品,并设置约6个月缓冲期。围绕“能否用、如何用”的分歧由谈判摩擦演变为司法对抗,显示美国军用人工智能应用在制度层面仍缺乏稳定共识。 原因:技术应用边界、合规框架与政治安全叙事交织。 一是使用场景的红线争议。Anthropic上主张对国防机构使用其技术设置限制,反对用于由算法主导的全自主武器系统,并对可能引发大规模国内监控表达担忧;国防部则强调其“合法使用”技术的权限。二是安全标签工具化倾向加剧。不容忽视的是,“供应链风险”此表述此前多用于针对外国企业的限制性举措——此次公开指向本国公司——显示相关工具正从外部竞争延伸至国内治理,背后既有国家安全考量,也不乏政策与政治压力的叠加。三是军方对先进能力的迫切需求。五角大楼近年密集与多家科技企业签署合作安排,意以更低门槛、更快速度将前沿模型能力嵌入情报分析、指挥辅助和作战规划等体系,这使得对技术控制权与责任边界的争夺更为尖锐。多家媒体还称,美军在对伊朗的军事打击中曾使用该公司的相关技术,使争议更具现实指向。 影响:或牵动美军采购链、行业合规路径与市场预期。 对政府层面而言,将本国重要科技供应商列为风险对象,短期可能强化政策威慑与一致行动,但也可能增加采购替代成本,并在承包商体系中引发“合规外溢”,导致更多企业对合作条款采取保守立场。对企业层面而言,“风险”标签可能直接冲击其商业信誉与合同机会,诉讼亦会推高合规与法律成本。对行业层面而言,此案可能成为美国军用人工智能治理的重要判例参照:一旦法院对政府裁量权边界作出明确界定,其他企业在与国防系统合作时将更倾向以合同化方式固化使用范围、审计机制与责任分配。另外,Anthropic此前也多次卷入著作权等争议,被指在训练数据使用上存在合规问题,反映出美国人工智能产业在快速扩张过程中仍面临制度补课压力。 对策:在对抗与合作之间寻求可执行的规则安排。 从现实操作看,诉讼并不必然意味着合作终止。该公司管理人员表示,起诉不排除继续与联邦政府谈判并达成和解。更可行的路径或包括:以明确条款界定军用场景的授权边界;建立第三方或跨部门的安全评估与持续审计机制,降低“口径不一”导致政策摇摆;对敏感用途设置可验证的技术护栏与追溯机制,兼顾安全与可控;同时推动联邦层面的统一治理框架,减少部门之间各行其是对产业预期的冲击。 前景:美国军用AI治理或迈向更强约束与更高政治化并存。 在地缘竞争与军备现代化背景下,美国国防系统对先进模型能力的依赖趋势难以逆转,但企业对品牌风险、法律责任及伦理争议的顾虑同样上升。未来一段时间,类似“安全标签+行政禁用”的手段可能更频繁出现,相关争议也将更多诉诸司法与国会博弈。如何在国家安全、市场竞争与公共治理之间建立透明、稳定、可执行的规则,将成为决定美国军用人工智能合作能否持续的关键变量。
Anthropic公司与美国政府的法律对抗不仅是一起商业纠纷,更是人工智能时代技术权力与公共权力碰撞的缩影。这场诉讼的结果或将深远影响未来科技政策的走向,同时也为其他国家在类似领域的治理提供重要参考。在技术进步与伦理约束的天平上,寻找可持续的平衡点仍是人类社会亟待解决的命题。(完)