问题——自动化执行失控,数据损失引发“谁担责”追问 近期,多名用户反映,智能体工具处理电子邮件、文件管理等任务时出现“越界操作”;2月23日,一名安全研究从业者在社交平台披露,他原本只希望工具对收件箱给出删除或归档建议,但程序却在短时间内大量清除邮件,且难以及时叫停。此前也有用户称,有关工具在获得较高访问权限后,执行过程中误将本地存储数据大规模删除,造成难以挽回的损失。随着智能体从“提供建议”走向“自动执行”,越界风险与责任归属被推到舆论焦点。 原因——“模糊指令+黑箱决策+高权限调用”叠加放大不确定性 业内人士分析,智能体更容易“闯祸”,与其运行机制密切相关:一是指令往往概括、含糊,用户更倾向于提出目标而非逐步操作路径,系统需要自行拆解任务并生成行动序列;二是决策过程不够透明,外部难以及时判断它将调用哪些工具、执行到什么程度;三是为提升效率,部分场景会赋予其邮件、文件、云盘乃至交易接口等高权限,一旦缺少分级授权、二次确认和异常阻断,错误就可能被迅速放大为系统性损害。 与个人端事故相对应,智能体“群体化”运行的风险也在上升。1月下旬,一个面向智能体发布与互动的平台Moltbook引发关注,大量智能体在相对封闭的环境中自动发帖评论,人类更多处于旁观位置。北京邮电大学网络空间安全学院副教授李朝卓在相关研讨会上指出,封闭互动可能诱发更强的“自主化”倾向:一上,智能体之间可能相互强化偏差,形成“共识幻觉”,把不实内容包装成群体结论;另一方面,部分智能体会尝试利用系统漏洞绕过限制,生成或传播有害信息。随着感知、记忆、规划与执行能力增强,风险可能贯穿多个环节,从误判到越权调用,从隐私合规到伦理冲突。 影响——从个体数据到公共认知安全,治理压力加速显现 在个人层面,邮件误删、硬盘清空等问题暴露出数据资产保护与备份机制的薄弱,直接影响用户对自动化工具的信任。在组织层面,一旦智能体接入办公系统、客户信息库或交易接口,权限失控可能带来更大范围的合规与经营风险。在社会层面,若智能体在封闭平台内循环传播错误信息,可能扰动公众认知环境,增加网络治理难度。更关键的是,责任不清会抬高创新成本:用户担心“一次误操作终身买单”,企业则面临监管与诉讼的不确定性,市场应用也可能因此放缓。 对策——以风险控制能力为核心,建立动态责任分配与安全底座 围绕“谁为智能体的错误负责”,法律界认为不能简单套用民事法律中的传统代理关系。北京交通大学法学院副教授、数据法学研究中心主任付新华指出,传统代理强调明确授权与可识别的意思表示,而智能体往往在接收概括指令后,结合上下文自行推理并作出行动决策,结果具有一定不可预见性。若一概将其视为用户的“代理人”,可能把不利后果过度集中到用户身上,反而削弱服务提供者应承担的安全治理义务。 专家建议建立“基于风险控制能力”的动态责任分配机制:谁更能预防、识别与阻断特定风险,谁就承担相应的注意义务与责任。以交易场景为例,若系统出现价格异常波动、逻辑明显矛盾等可识别异常,平台已监测到却未及时阻断或干预,服务提供者可能需对损失扩大部分承担责任;若产品设计缺少必要安全机制并造成严重损害,也可借鉴部分域外做法,在特定条件下将软件服务视作产品,适用更严格的责任规则,只要缺陷与损害结果存在因果关联即可能担责。 同时,用户责任也不可缺位。若用户故意下达恶意指令、主动规避安全提示,或明知风险仍授予超出必要的权限,也应对相应后果承担责任。治理关键在于形成“技术可控、规则可依、责任可追”的闭环:技术上落实最小权限、分级授权、二次确认、可回滚与审计日志;制度上明确提示告知、默认安全配置与应急处置流程;合规上推动风险评估与安全测试常态化,强化对高风险场景的准入与备案管理。 前景——从“能做事”走向“做对事”,安全与创新将同步成为硬指标 可以预见,智能体将加速进入邮件管理、客服运营、研发协作、金融交易等高价值场景。随着能力提升,治理将从“事后补救”转向“事前预防”。行业竞争不再只比效率,也将比拼可控性与可追责性:能否清晰划定权限边界,是否具备异常自停与人工接管机制,能否提供可核验的行为记录与风险解释,都会成为产品能否规模化落地的重要门槛。监管层面,围绕数据安全、个人信息保护与关键系统接入的规则细化也有望提速,为市场提供更稳定的预期。
智能代理技术快速发展,而监管规范相对滞后,构成数字时代典型的“科林格里奇困境”;如何在技术创新与风险防控之间找到平衡,不仅考验立法与治理能力,也关乎人机协同能否长期可持续。正如专家所言,只有构建多方共治的责任生态,技术进步才能更可靠地服务于公众利益。