AI智能体安全风险引关注 专家建议构建防护规范

问题:智能体技术快速发展暴露安全隐患 近期,智能体技术OpenClaw凭借高效的任务执行能力迅速走红,上线一周便吸引近10万用户关注。但能力扩展的同时,也带来了新的安全挑战。与传统人工智能模型不同,OpenClaw不仅能理解复杂指令,还能自主调用系统资源、操作文件,甚至接管社交账号。这种从“理解”走向“执行”的变化,使传统网络安全边界面临被突破的风险。 原因:四大核心风险浮出水面 安恒信息研究院院长王欣指出,当前智能体技术主要存在四类安全隐患:一是身份认证漏洞带来的系统失控风险,攻击者可能通过恶意链接劫持用户权限;二是技能供应链风险,恶意代码可能伪装成工具混入系统;三是隐蔽的间接指令注入,利用看似正常的内容引导智能体执行不当操作;四是智能体自身的不稳定性,在非恶意场景下也可能发生误操作甚至失控。其根源在于智能体的开放性与功能快速扩展,但配套的安全约束机制仍不完善。 影响:行业安全生态亟待完善 这些隐患不仅威胁用户数据安全,也可能被不法分子用于发起网络攻击。2026年初曝光的CVE-2026-25253漏洞事件显示,攻击者可通过较低门槛的操作触发系统性风险。另外,智能体具备一定自主性,风险往往不易被用户直接察觉,深入增加了安全管理难度。 对策:新型防护方案提供解决路径 针对上述问题,安恒信息推出智能体安全解决方案ClawdSecbot。该方案通过多层防护机制,在尽量不影响用户体验的前提下,对智能体行为进行实时监测与风险拦截。核心能力包括智能体资产自动发现、技能安全扫描、行为动态分析及操作追溯,帮助用户建立可感知、可控制的安全边界。 前景:技术与规范需协同发展 业内专家认为,智能体安全防护需要技术与规范同步推进。一上,企业需持续迭代防护能力,提高对新型风险的识别与处置水平;另一方面,有关部门应加快制定智能体应用标准,明确安全责任与边界。随着防护体系逐步完善,智能体技术有望在安全可控的基础上释放更大价值。

开源智能体的走红展现了技术创新的活力,也提醒行业必须把安全作为同等重要的基础能力来建设。只有在权限可控、来源可信、过程可审、风险可拦的制度与技术体系下,智能体才能更稳妥地走向生产一线,把“新能力”转化为“新生产力”。