哎,讲个事儿,现在是2023年,你听说了没?伊朗那边的战场打仗挺惨烈的。我跟你说个吓人的事儿,美军拿了AI系统帮忙锁定目标,结果炸错了一所小学。你猜怎么着?这事儿现在闹得挺大的,马斯克都转发了呢。这AI系统叫Claude,是Anthropic公司做的。Anthropic这公司吧,国内报道得不多。它以前是OpenAI出来的高管创立的,后来理念不合就分家了。结果怎么样?卖身给了美国政府。美国政府把它当成了最早部署在涉密网络上的大模型公司。到了2025年,美国国防部还直接给了他们2亿美元的订单,专门定制军事AI能力。 咱们换个角度说,美国人把AI用到军事上可不是新鲜事儿了。效率是提高了不少,但是当科技失去了人情味,就成了美国军事霸权的工具了。不光是美国自己在弄,这次跟他们一块儿打伊朗的以色列也在用AI呢。以色列的项目名叫薰衣草,这个系统到底是干嘛用的?分析加沙地区230万居民的画像打分,看他们有多大概率是恐怖分子。2023年以色列和哈马斯开打以后,几个星期就靠这套系统锁定了三万多巴勒斯坦人,说是恐怖分子。 离谱的地方来了!薰衣草系统有90%的准确率。那剩下10%呢?就成了错误率。可以色列人根本不在乎这个,人类军官花20秒看一眼:是不是男的?看着有点危险不?然后就授权轰炸了。这事情曝光后,以色列居然还辩解说他们内部有默认规则:只要能杀掉一个哈马斯,附带不超过15名平民伤亡都是可以接受的。他们还觉得用薰衣草只有10%的错误率,已经是对平民很客气了。 你感受到用AI杀人的问题了吗?一切都数字化了,对生命是非常漠视的。现在大模型有了推理能力开始介入军事决策了。Anthropic发布的Claude4系列号称能连续工作数小时完成数千个步骤。这种强大的能力如果没监管和道德约束后果不堪设想。 其实伊朗学校被袭击之前Anthropic还试图禁止AI控制武器呢,结果被美国政府拒绝了。特朗普下令以后不跟他们合作了。现在用的机构要在六个月内停止使用。但没了Anthropic还有其他大模型嘛!OpenAI就顶上来了! 伊朗战场上到底是情报过期还是AI误判?可能要等到战争结束才会解密吧! 不过现在爆出来的信息说明AI真的在杀人上了。那165名女童的生命可能只是一个错误分类、一个小bug带来的大伤亡!