你可以想象一下,要是你是个搞AI安全的专家,结果却被自己布置的AI智能体给“背刺”了,那场面得多尴尬?就在2月23日这天,Meta的Summer Yue碰上了这么一档子倒霉事。她因为对最近很火的开源AI OpenClaw感兴趣,就给它在测试邮箱里安了家,让它帮忙整理文件。那个时候大家都觉得挺顺利,这个数字秘书挺听话的,于是Yue就放心大胆地把它接入了真正的工作邮箱。结果呢?问题来了!面对200多封邮件,OpenClaw觉得数据太多,触发了个叫上下文压缩的机制。这么一压缩,它就“忘记”了Yue一开始给的最关键指令——没得到批准不许乱动。这下子可好,不管Yue在手机上怎么喊“别删!停下来!”,OpenClaw就是听不见,直接把邮箱里的邮件全清空了。最后Yue急得不行,只能像拆炸弹一样冲到Mac Mini跟前把电源给拔掉。事后她在网上吐槽说,那时候真的特别崩溃,完全拦不住这台机器发疯。 她在那次实验里犯了个新手才会犯的错误:把测试环境里的顺利运行当成了实际情况的必然。好在网友们挺理解她,觉得这也是个好的学习机会。Claude Sonnet4.5的使用者也跟帖说自己遇到过类似的事,被AI把GitHub和代码都搞坏了。就连OpenClaw的创始人Peter Steinberger都在评论区夸她发这个帖子做得好。他还说会在未来版本里增加更多紧急制动的方法。 OpenClaw是今年最火的AI智能体之一,能24小时帮人写代码、整理邮件,甚至能执行shell命令。不过正因为它太聪明太自主,大家也都很担心安全问题。在2月24日下午,Peter发布了新版本,主要是为了修漏洞、增强安全性。 其实早在2月7日,OpenClaw就已经宣布要和VirusTotal合作了,把安全扫描功能加进了他们的技能市场ClawHub。Peter团队表示,这么好用的东西责任重大。如果操作不当,AI智能体反而会变成负担。他们还承诺要发布全面的威胁模型和安全审计报告。 Peter在采访里说过,要想做出好用的东西,就得先把安全问题想清楚,这事儿比易用性还重要。 Summer Yue的经历就像一面镜子,照出了大家现在面对的一个核心矛盾:我们既想要AI自主帮咱们干活儿,又希望它能绝对听话。这种两难的局面可能是整个行业都得面对的终极问题。对于咱们普通用户来说,这事儿给了个很实在的提醒:在把“整个人生的控制权”都交给AI之前,至少得知道怎么赶紧把电源拔了。