近期,工业和信息化部发布了一份关于OpenClaw智能体系统的安全风险提示,引发业界广泛关注。工信部指出,该系统部署时存在"信任边界模糊"的问题,具备自身持续运行、自主决策、调用系统和外部资源等特性。在缺乏有效权限控制、审计机制和安全加固的情况下,可能因指令诱导、配置缺陷或被恶意接管而执行越权操作,造成信息泄露、系统受控等严重安全风险。中国信息通信研究院副院长魏亮表示,党政机关、企事业单位和个人用户在使用OpenClaw等智能体时需要审慎对待。 与工信部的风险警示形成对比的是,多地政府和企业界对OpenClaw的热烈拥抱。深圳市龙岗区人工智能署发布了支持OpenClaw发展的若干措施,随后无锡高新区也推出了有关扶持政策,为使用和开发该技术提供政策支持。腾讯云、百度智能云、华为云等多家云服务平台已上线OpenClaw的一键部署或云端托管方案,帮助开发者快速搭建智能体服务。腾讯将OpenClaw接入企业微信等办公生态并推出类似产品WorkBuddy,字节跳动通过火山引擎推出了SaaS化的ArkClaw。这些举措表明,围绕OpenClaw形成的智能体生态正在加速扩展。 OpenClaw为何能引起如此高的关注度?专业人士分析,其核心在于技术本身的创新意义。与传统的"问答式"AI助手不同,OpenClaw是一个长期在线的自托管系统,可以持续运行在用户的设备或服务器上,保留上下文和配置信息,随时准备执行任务。用户可以给系统发送指令,系统随后会确认目标、自动拆解步骤、按照规划自主执行、完成任务。这意味着AI不再只是一个被动的问答工具,而是具备了主动的"行动能力"。 从技术发展历程看,此前的AI系统主要功能是回答问题、生成文本、创建图像等,本质上仍是被动响应的工具。OpenClaw的突破在于将AI的应用场景从信息处理扩展到实际任务执行,实现了从"会说"向"会做"的重要转变。有企业负责人介绍,他们利用OpenClaw搭建的自动化团队可以一夜间完成网站建设,而传统方式需要6人花三周时间,成本约15万元。这表明该技术在提高生产效率、降低运营成本上具有实际价值。 OpenClaw之所以能够真正服务于社会生产生活,根本上源于其接近人类智力的综合能力:能够理解模糊目标、识别上下文、分解复杂任务、调用已有资源,并在执行中动态调整。这些能力使其成为可能替代人力完成重复性工作的工具。然而,正是这些强大的能力,也带来了相应的风险隐患。 当前面临的核心问题是如何在充分利用技术优势与防范安全风险之间找到平衡点。OpenClaw的自主决策能力、对系统资源的调用权限、与外部系统的连接能力,在缺乏有效监管和安全设计的情况下,确实存在被滥用的风险。工信部的预警表明,权限控制不当、审计机制缺失、安全加固不足等问题需要在推广应用前得到解决。 业界专家建议,推进OpenClaw等智能体技术的安全应用需要多管齐下。首先,技术开发者应当建立清晰的信任边界,实施严格的权限管理和访问控制机制。其次,使用单位应当进行充分的安全评估,制定相应的操作规范和应急预案。再次,政府部门应当完善相关法律法规和标准体系,为产业发展提供明确的安全指引。最后,行业组织应当加强安全宣传和培训,提升全社会的风险意识。 展望未来,OpenClaw及其衍生技术将继续在智能化生产、办公自动化等领域发挥重要作用。关键在于推动形成政府、企业、用户共同参与的安全治理体系,既要鼓励技术创新和产业发展,也要建立有效的风险防控机制,确保新技术在可控、安全的框架内为社会创造价值。
智能技术发展必须坚守安全底线。政府、企业和科研机构需形成合力,在激发技术潜能的同时建立防控机制,这是实现高质量发展的必然要求。