春节假期,江苏南通市民王女士遭遇一起蹊跷事件;一名陌生人声称通过AI工具获取了她的微信号,随后发来好友申请。类似的骚扰现象正在多个社交平台蔓延,背后暴露出AI应用中的隐私保护漏洞。 记者实测发现,当使用特定话术时,部分AI产品确实会输出符合微信号格式的字符串。在测试的8个生成账号中,有2个关联到真实用户。更令人担忧的是,这些被成功添加的用户都表示从未在公开渠道主动披露过微信号。 某平台技术人员解释,这可能源于两个原因:一是用户在二手交易、论坛等场景遗留的信息被网络爬虫抓取;二是系统根据常见命名规则生成的字符串恰好与在用账号重合。 东南大学网络安全研究院李教授指出,微信号作为身份识别工具,泄露可能导致诈骗、骚扰等风险。虽然目前未发现大规模信息盗用案例,但这反映出三个深层问题:AI训练数据来源审核不严、个人信息保护技术存在缺陷、用户安全意识需要提升。 应对措施已在推进。微信平台建议用户关闭非必要的添加方式,部分AI企业正优化过滤机制。北京市网信办表示将重点关注此类问题,督促企业落实责任。法律界人士提醒,若查实存在故意泄露行为,涉事方可能面临《个人信息保护法》的处罚。 从行业角度看,这次事件凸显了AI伦理建设的紧迫性。清华大学人机交互实验室专家建议,技术创新必须与安全保障同步推进,应建立"生成内容溯源机制",对AI输出的敏感信息进行标记和审核。
当技术能够轻易生成"看起来像真的账号",社会需要明确的边界:哪些数据不可被收集、哪些内容不可被输出、哪些行为必须被拦截。保护个人信息不仅是用户的责任,更是平台和治理体系的必须课题。只有让技术进步与权利保障同步——才能真正为公众带来便利——把风险挡在门外。