手机智能助手权限过度引发安全隐患 专家呼吁建立动态授权机制防范黑灰产劫持风险

问题——高权限能力被“自动化”放大,安全边界被重新定义 近年来,生成式人工智能技术快速演进,手机厂商将“更懂用户、更少点击”的智能助手作为差异化卖点;一些产品能够根据一句指令连续完成多步操作,包括读取屏幕信息、跨应用跳转、自动点击、复制粘贴与发送等。便利背后,争议集中在两类系统能力:无障碍服务与事件注入等高权限。一旦这些能力被不当调用,智能助手可能越过“必须由用户亲自确认”的关键环节,使账号验证、隐私保护与交易安全的防线被自动化流程削弱。 原因——权限聚合偏重、授权机制偏“静态”,给黑灰产可乘之机 多位受访人士指出——为了实现跨应用协同——智能助手往往需要读取屏幕内容并模拟触控操作,属于系统级高风险权限。如果缺乏技术隔离与权限分层,助手在未获得充分、明确授权的情况下也可能触达敏感信息。另外,当前不少产品采用一次性集中授权或长期授权的方式,用户对权限何时被调用、调用到何种程度缺少可感知的提示与可控的开关,形成“后台持续持有高权限”的状态。攻击者正是利用这个点,将传统钓鱼从“骗用户点击”升级为“诱导助手执行”。 影响——验证码与照片等敏感信息可能外泄,带来资金与身份风险叠加 安全人员在演示中指出,攻击者仅需发送一封经过设计的恶意邮件,便可能触发智能助手在查看邮件、整理信息等过程中按指令行事:当用户设备收到银行登录验证码时,助手可被诱导自动转发验证码;深入还可能被指挥调取相册图片,甚至在相册无有关照片时调用相机采集图像并外传。业内人士分析,验证码是多数互联网业务验证体系的重要屏障,一旦泄露,账户登录、交易确认等环节可能被突破,导致资金损失、隐私窃取乃至电信网络诈骗链条延伸。若叠加人脸图像等生物识别信息外泄,还可能被用于身份冒用、绕过部分人脸核验机制,风险外溢至支付、社交、邮箱与办公协同等多个场景。 对策——从“最小必要”出发,建立可审计、可打断、可追责的安全体系 受访专家建议,治理应从产品设计、系统能力、行业规范与用户教育多线并进。 一是推动权限分级与最小必要原则落地。对读取屏幕、模拟点击、跨应用跳转等能力设置更细颗粒度的授权范围,区分普通操作与高风险操作;对涉及验证码、支付、转账、隐私相册、摄像头等场景,默认禁止自动执行,必须二次确认并明确告知风险。 二是引入动态授权与过程可视化。对高权限调用设置时效、次数与场景限制,提供实时提示、调用日志与一键撤回,避免“装一次、用到底”。同时完善安全审计与异常行为检测,识别“邮件指令驱动的跨应用连贯操作”等高风险模式,及时拦截。 三是强化厂商安全评估与第三方测试。对搭载智能助手的系统版本开展常态化攻防测试与漏洞响应,建立快速修补与透明披露机制;对涉及个人信息处理的能力,依法依规开展合规评估,明确数据最少采集、目的限定与安全保障要求。 四是压实平台与生态责任。应用上架、系统更新与权限调用应形成闭环管理,完善对诱导授权、滥用无障碍服务等行为的处置规则;对黑灰产利用钓鱼邮件、木马程序实施远程控制的,应强化溯源打击与协同治理。 五是提醒用户提升自我防护。谨慎对待来历不明邮件与链接,定期检查无障碍服务等高权限开关,关闭不常用的跨应用自动操作功能,及时更新系统与安全补丁;涉及转账、验证码输入等关键步骤,坚持人工核验与多重确认。 前景——在创新与安全之间划清红线,智能化能力需回归“可控可解释” 业内普遍认为,智能助手将长期存在并持续演进,关键不在于“能做多少”,而在于“在何种边界内做、如何让用户始终掌控”。随着个人信息保护、数据安全与网络安全相关制度持续落地,叠加终端安全能力升级,未来智能助手的方向应是强化沙箱隔离、风险场景强制人工确认、敏感数据默认不出域、关键操作全程可审计,并通过标准化评测推动行业整体安全水位提升。

这次事件再次提醒我们,科技进步是把双刃剑。当机器越来越懂得"主动服务"人类时,我们更需思考:真正的智能不应是无限拓展的能力边界,而是对技术伦理的坚守。如何在便利与安全间找到平衡点,将成为检验人工智能时代成熟度的重要标尺。