澳大利亚未成年人社交媒体禁令实施逾月 Meta已封禁54万余账户 专家指出执行仍存技术漏洞

澳大利亚政府针对未成年人网络安全推出的《2024网络安全(社交媒体最低年龄)修正案》实施满月之际,国际社交媒体巨头Meta首次公布合规数据。

该公司声明显示,在禁令生效首周,其旗下Instagram、Facebook和Threads三大平台共移除54.4万个涉嫌未成年用户的账户。

这一数字反映出平台方初步响应姿态,但实际执行效果引发多方质疑。

技术缺陷削弱禁令效力 据当地媒体调查,现有年龄验证系统存在显著漏洞。

部分青少年通过修改注册信息轻松绕过认证机制,被封账户亦可通过新注册重新激活。

更值得关注的是,约17%的受影响青少年转向Snapchat、TikTok等未纳入监管的替代平台,形成"监管洼地"效应。

悉尼大学数字政策研究中心指出:"单一平台治理难以形成保护闭环,跨平台协同机制亟待建立。

" 立法动因与监管决心 该禁令的出台源于澳大利亚青少年网络使用现状的严峻性。

政府统计显示,禁令实施前,15岁以下青少年社交媒体渗透率高达86%,其中32%曾遭遇网络欺凌。

通信部长米歇尔·罗兰多次强调:"科技公司必须为产品设计导致的青少年心理健康问题负责。

"修正案特别规定,平台需采取"合理措施"阻断未成年访问,违者将承担相当于年营业额5%或4950万澳元的罚款。

企业责任与社会争议 Meta在声明中表示已投入"数千万美元"升级年龄识别系统,但未具体说明技术细节。

数字权利组织"澳大利亚监控观察"批评称,生物识别等强验证手段可能侵犯隐私权。

墨尔本法学院专家分析认为:"在保护未成年人与维护数字权利之间,需要更精细化的合规标准。

" 全球监管趋势下的挑战 澳大利亚此举与欧盟《数字服务法》、英国《在线安全法案》形成政策呼应,标志着未成年人网络保护进入强监管时代。

但业内人士指出,跨国平台执行标准不一、新兴技术快速迭代等因素,将持续考验监管有效性。

据悉,澳议会已启动对短视频平台的专项评估,禁令范围可能进一步扩大。

未成年人网络保护是一项系统工程,既需要法律的明确边界,也需要平台的长期投入与社会的共同参与。

账号清理可以是治理的起点,却不应成为终点。

如何在守住安全底线的同时兼顾隐私权、申诉权与数字教育,考验的不只是某一平台的技术能力,更是公共政策在复杂数字生态中实现“可执行、可验证、可持续”的治理智慧。