美国国防部长赫格塞思最近给美国AI公司Anthropic下了最后通牒,要求他们在2021年8月27日之前把自己的AI技术给军方无限制使用,不然就拿不到政府合同。这回赫格塞思可没跟他们客气,直接威胁说要把Anthropic列为供应链风险企业,这可是个非常严重的处分,毕竟通常都是用来对付跟外国对手有瓜葛的公司的。 当地时间24日赫格塞思跟Anthropic的首席执行官达里奥·阿莫迪见了面,气氛那叫一个紧张。赫格塞思以国家安全为由,让阿莫迪在本周五前达成协议,允许军方随便用他们的AI模型,不然就得严惩不贷。除了取消价值2亿美元的合同,五角大楼还给两家大公司波音和洛克希德·马丁发了任务,要他们评估一下自己对Anthropic的AI模型“克劳德”的依赖程度。这一步走得很明显,就是要把Anthropic的名声搞臭。 为了让Anthropic乖乖听话,赫格塞思甚至还打算动用《国防生产法》。这个法案能让政府在紧急时刻强制私营公司接受并优先履行国防合同。那Anthropic到底在怕什么呢?主要是怕相关技术被用来造全自动武器或者监控美国老百姓。阿莫迪也早就说了,政府要是想随便用这些技术他绝对不干。五角大楼倒是认为他们买的东西怎么用不该受干涉。 外界觉得五角大楼跟Anthropic的矛盾,其实是特朗普政府跟AI企业在安全标准和军方应用边界上的分歧。去年夏天五角大楼签了四家AI公司的合同,每份都有2亿美元。Anthropic第一个进了军方的机密系统,因为他们的“克劳德”模型被认为是最先进、最安全的。上个月美军突袭委内瑞拉时也用了这个模型。 虽然五角大楼想给Anthropic点颜色看看,但也担心真把“克劳德”拿走会有什么严重后果。所以他们已经在接触其他AI公司了。马斯克的xAI虽然这周也获准把Grok用在机密环境里了,但能不能顶替“克劳德”还是个未知数。 从2021年离开OpenAI创立Anthropic起,阿莫迪就一直倡导更严格的安全标准。可特朗普政府就喜欢宽松一点的监管方式,觉得太严会扼杀创新。有人说赫格塞思这么强硬是为了赶在中国前头把AI融入军事。 乔治城大学安全与新兴技术中心的欧文·丹尼尔斯觉得Anthropic的安全理想正在被五角大楼的不确定性所挑战。同行们都愿意遵守国防部把AI用于所有合法用途的政策。所以Anthropic现在没什么议价能力了,可能以后会失去影响力。 虽然这次见面没什么软化的迹象,但Anthropic也开始调整政策了。他们把原来的安全政策改成了比较灵活的框架。这是不是意味着他们的底线往后退了呢?还是说未来真能跟五角大楼达成和解?谁也说不准。