Discord全球推行青少年保护新举措 默认启用未成年人模式强化网络安全防线

在全球互联网平台不断加强未成年人保护的背景下,Discord最新政策调整引发业内关注。该平台将推出三重防护体系:首先,所有账户默认启用“未成年人保护”机制,18岁以上用户需通过生物识别或证件核验才能解除限制;其次,部署智能年龄推断系统,对未验证账户进行风险筛查;最后,新设青少年委员会,建立常态化反馈渠道,让安全策略更贴近青少年实际需求。 该决策与近年未成年人网络保护压力上升有关。联合国儿童基金会数据显示,全球约三分之一的互联网用户为18岁以下青少年,但面向该群体的专项保护措施整体仍相对滞后。Discord月活超过1.5亿,语音聊天、兴趣社群等功能在青少年群体中使用广泛,但内容治理仍存在盲区。欧盟“清洁网络”计划在2022年评估报告中也曾指出,该平台的年龄分级制度仍有改进空间。

未成年人网络保护不是一次更新就能完成,而是一项需要规则、技术、治理与社会合力推进的长期工作。Discord以“默认保护”为起点,叠加年龄验证、推断机制与青少年参与反馈,反映出平台治理正向更前置、更系统的方向调整。接下来,如何在隐私与安全之间划出透明可信的边界,在效率与公平之间建立可纠错的机制,将成为检验这些举措成效的关键,也将为数字社交空间的健康发展提供参考。