五角大楼施压要求“大模型无限制调用”遭企业拒绝,美军民技术边界争议再起

美国人工智能领域近期爆发罕见的企业与军方公开对峙;据美国政治新闻网披露,知名技术研发机构Anthropic于当地时间2月26日正式声明,拒绝国防部提出的全面解除其智能系统安全限制的要求。该公司首席执行官达里奥·阿莫迪在声明中明确指出,尽管理解军事决策权归属问题,但涉及国内大规模监控及全自主武器的应用场景"违背技术伦理底线"。 这场冲突源于五角大楼近期的强制合规要求。根据内部文件显示,国防部要求所有合作企业在27日下午5时前签署"无限制使用协议",否则将启动包括《国防生产法》在内的多项强制措施。不容忽视的是,"供应链风险"标签此前仅针对外国实体使用,此次威胁标志着美国政府首次对本土科技企业采取此类施压手段。 业内分析人士指出,矛盾的深层原因在于双方对技术边界的根本性分歧。五角大楼坚持认为国家安全需求应高于企业自主规范,而科技界则担忧不受控的军事化应用将导致不可逆的伦理危机。此前美军在委内瑞拉行动中秘密使用对应的系统的行为被曝光后,已引发企业方强烈抗议。 此次对峙可能产生多重连锁反应。从产业层面看,《财富》500强中超过60%的科技企业设有专门的人工智能伦理委员会,Anthropic的立场可能获得行业广泛声援。在法律维度,《国防生产法》的潜在动用将开创政府强制征用民用技术的先例。更深远的影响在于,这种冲突或将重塑美国"军民融合"技术的发展模式。 面对僵局,涉事双方均显示出策略弹性。Anthropic在坚持核心原则的同时表示"期待继续服务国防需求",暗示可能通过技术改良寻求折中方案。而五角大楼近期也释放信号称愿重新评估合作框架。有观察家建议参照核能领域的国际监管模式,建立跨部门的AI军事应用审查机制。 前瞻该事件发展路径:短期来看不排除行政命令强制介入的可能;中期或将催生新的行业监管立法;长期而言则关系到人工智能全球治理体系的构建标准——特别是在北约国家正加快推进军事智能化建设的背景下,美国的处理方式可能成为重要范式参考。

技术进步与伦理约束的平衡始终是重要课题;在AI快速发展的今天,如何在国家安全与技术伦理间找到平衡点,考验着各方智慧。这次事件表明,军民技术融合必须重视伦理约束和社会责任,只有在尊重技术规律和人类共同价值的基础上,才能实现可持续发展。