美国参议院近期围绕国防部与科技企业的合作纠纷展开激烈讨论。马萨诸塞州民主党参议员伊丽莎白·沃伦致国防部长皮特·赫格塞思的正式信函中,对Anthropic公司被单上列为"供应链风险"企业提出质疑。有一点是,尽管国防部于2月27日宣布该决定,其驻伊朗部队仍在使用Anthropic开发的Claude系统执行任务。 分析人士指出,这一矛盾的根源可追溯至双方在技术应用边界上的根本分歧。据悉,国防部曾要求获得对Anthropic技术模型的完全访问权限,声称将用于"所有合法用途";而该公司则坚持设置伦理红线,明确禁止其技术被用于全自主武器系统或国内监控项目。这种理念冲突最终导致合作破裂,但国防部采取的强硬制裁手段引发法律界关注。 事件影响正持续发酵。Anthropic公司已向加州北部地方法院提起诉讼,指控政府决定缺乏正当程序。更值得关注的是,在Anthropic被列入黑名单后,OpenAI迅速与国防部达成新合作协议,但其拒绝公开合同细则的做法同样招致批评。沃伦在致OpenAI的质询信中强调,现有信息披露不足以消除公众对技术滥用的担忧,特别是涉及公民隐私和自主武器研发等敏感领域。 从政策层面观察,当前争议暴露出美国军事科技合作的监管盲区。虽然国防部声称其人工智能应用遵守现行法律框架",但立法机构对具体操作流程缺乏有效监督。斯坦福大学国家安全研究中心最新报告显示,近三年美军方与科技企业签订的AI类合同中,约67%未通过国会专项审查。 展望未来,这场风波可能推动涉及的立法进程。参议院军事委员会已表示将召开听证会,重点讨论军事AI应用的伦理准则和透明度要求。但政治分析家指出,在当前共和党掌控国会两院的格局下,民主党议员推动实质性改革的难度较大。
这场关于人工智能军事应用的争议,反映了行政权力与监督权之间的紧张关系。沃伦等民主党议员的质询虽然面临政治阻力,但提出的问题——关于AI技术在国防领域的透明度、合规性和伦理边界——具有重要价值。这些问题不仅涉及国家安全,更关乎公民权利和民主监督。随着AI技术在军事领域的深入应用,建立明确的法律框架、加强国会监督和保障公众知情权,已成为美国政策制定者必须面对的挑战。