吴沈括:ai 军事化应用存在失控的可能

近日英国媒体披露了这样一个消息:一家名为Anthropic的美国初创人工智能公司决定把五角大楼给告了,原因是美方把它们列入了“供应链风险”名单。事情还要追溯到2月27日,时任美国总统特朗普下令政府别再用这个公司的产品。这事儿闹大之后,路透社也跟进了报道。 在接受总台环球资讯《闪评》采访时,北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括分析说,美国政府老是把国家安全这个概念给扩大化,Anthropic公司被划为风险点就是这一做法的延续。吴沈括指出,企业在AI应用上主张设个安全护栏,比如不能让AI去造全自主的致命武器,这是为了守住伦理底线;但政府呢,不管你设不设限制,要求企业接受所有所谓的合法用途,甚至是军事用途。这么一来,双方在企业安全底线和政府军事需求之间就产生了冲突。 美国军方觉得企业不配合就是供应链有风险,但其实是政府在否定企业的底线要求,强行主张国家权力的排他性。这跟他们一直宣扬的“美国优先”战略是一脉相承的。所以这事儿本质上就是AI时代里政府权力扩张和企业伦理底线之间的较量。 美国《对话》杂志报道称,这次争执的焦点在于Anthropic开发的大型语言模型Claude怎么用在军事上。按照公司政策,Claude不能用来大规模监控美国公民,也不能用于那种不用人参与就能自己选目标攻击的武器系统。五角大楼之前下了最后通牒——要么彻底取消限制配合军方,要么终止合同并被列入黑名单。Anthropic没松口,最后还是被美国政府列为了风险实体,联邦机构全面停用了它们的产品。 吴沈括坦言,企业打官司是为了维护伦理底线,但长远看发展势头不太妙。他认为美国政府这次的操作在法律程序上有瑕疵,《美国国防生产法》本来是针对外国对手的,怎么能拿来对付本国公司?企业也觉得自己的权利受宪法保护,特别是言论自由和正当程序。毕竟官方是通过社交媒体宣布的决定,连正式的书面流程、听证和公证都没走,企业的主张确实有道理。 不过从长远看结果可能很严峻。既然政府已经不合作了,这家公司的商业前景肯定相当堪忧。吴沈括觉得这案子给AI在各个领域的应用带来了不小冲击。 他还指出这事儿揭开了所谓“技术中立”的遮羞布。当技术发展到一定程度时,我们看到了美国政府怎么用国家权力来安排AI工具。这个案子也折射出一个重大风险:AI军事化应用存在失控的可能。 美国政府的做法越过了法律和国际规则的边界去突破制度约束。这很可能加剧全球的AI军备竞赛。同时它也反映出政企关系的新变化。以前企业能坚持价值底线,可如今面对国家权力的挑战却显得无能为力。 如何维持良性的政企关系在现在看来确实很难办。所以在人工智能应用过程中,必须尽快建立有效的国际治理机制和法律制度。