最近咱们在GitHub社区那边爆出了一个大新闻,说那个叫OpenClaw的开源智能体框架被人找出来33个漏洞。3月30号那天,消息一出来可就把整个开发者圈子给炸了。这事儿还是蚂蚁集团旗下的AI安全实验室干的。他们专门把OpenClaw给翻了个底朝天,检查了三天,就给它提交了33个漏洞报告。在最新的2026.3.28版本里,OpenClaw也终于承认了其中8个漏洞的存在并修复了它们,这里面包括1个严重级别的、4个高危的和3个中危的漏洞。 说实话,我真觉得OpenClaw代表的不单单是个开发工具了,它其实就是现在最火的那种AI产品形态——Agent。这一年来大伙儿都看明白了大模型越来越稳了,“模型能力竞赛”早就不是焦点了,“怎么让应用落地”才是正经事。在这儿头,Agent可是顶梁柱的作用,它不光是会说会写内容,它还会调用工具去干活、去执行任务,甚至能直接插手系统操作。 传统大模型出了事一般也就是说几句错话、吐点奇怪内容,顶多就是个信息层面的问题。可Agent就不一样了,它的行动能力才是老大难。比如它要是能直接调用系统资源、访问本地文件、执行一连串指令链的话,那风险可就大多了。你想啊,这要是真有漏洞被坏人利用了,那可不是信息泄露那么简单的事儿了,很可能直接威胁到财产安全甚至个人隐私。 至于这次具体的技术细节嘛现在还没完全公开说,但从严重和高危这两个评级来看,问题肯定出在权限控制、执行链路或者调用机制这些关键环节上。换句话说,这种漏洞一旦被人钻了空子,影响范围就不只是说说而已了。 你看现在行业里头把所有的心思都扑在怎么让Agent变得更聪明上了:拆解得更细、调用更多的工具和Skill来解决问题、自动执行能力更强……但对于权限隔离、风险控制、执行边界这些事儿反而很少有人细琢磨。不过还好有蚂蚁安全实验室在那里盯着呢。 他们其实早就开始搞“可信AI”这块儿的研究了,从对抗攻击到数据安全全都有涉及。后来他们还发了那个《终端智能体安全2025》白皮书,专门给大家讲AI的安全风险。不光如此,蚂蚁在内部也搭起了针对大模型的安全体系:像提示词注入、工具调用链路、数据泄露这些风险都给检测机制覆盖了。 这么一比较你就会发现:这些能力正好戳中了当前Agent最容易出岔子的几个点。 回过头来看这次Openclaw的漏洞报告其实也是好事一桩:说明这些漏洞很快就被发现并补上了;另一方面像蚂蚁这样的团队主动出手也证明大家开始重视起AI的安全问题了。这件事儿也给咱们提了个醒:Openclaw这种自动化Agent确实帮咱们省了不少力气做繁琐的工作;但在把任务交给AI之前咱们还得盯着点安全这事儿才行。