问题:未成年人触网年龄持续提前、线上活动场景不断扩展,带来新的身心健康风险;一段时间以来,部分内容借助热搜榜单、弹窗推送、短视频传播等方式快速扩散,存诱导模仿不良行为、误导价值判断、消费未成年人形象、泄露个人隐私等隐患。现实中,家长、学校与平台对“哪些内容属于风险信息、应当如何限制传播”常缺乏一致尺度,导致治理时有“认定难、处置慢、责任散”的情况。 原因:一上,网络内容生产门槛降低,追逐流量的商业模式容易放大猎奇、对立、攀比等情绪表达;另一方面,算法推荐以用户停留与互动为导向,在缺乏有效约束时可能放大未成年人接触不适宜内容的概率。另外,新业态不断出现,一些利用未成年人摆拍牟利、以恶搞方式博取关注、诱导非理性追星打赏等行为更具隐蔽性和诱导性,传统的原则性条款难以直接对应到具体场景,治理需要更细化的“标尺”。 影响:此次《办法》首次从未成年人身心发展特点出发,将可能影响未成年人身心健康的网络信息明确为四类,并以列举式方式细化边界:一是可能引发或诱导未成年人模仿不良行为的信息,包括性暗示、网络暴力、诱导非理性追星打赏等;二是可能对未成年人价值观造成负面影响的内容,涉及炫富拜金、畸形审美、“读书无用论”等错误观念;三是不当使用未成年人形象的信息,如利用未成年人摆拍牟利、通过恶搞未成年人博取关注等;四是不当披露未成年人个人信息的行为,强调未经监护人同意不得展示不满十四周岁未成年人的学习、生活等场景。分类的清晰化意味着风险识别更具可判性,为平台治理、监管执法、学校教育与家庭监护提供共同参照,有助于减少尺度不一带来的治理缝隙。 对策:围绕“把风险挡在前面”,《办法》对平台与内容生产者提出覆盖展示、推荐、管理、提示的全链条约束。其一,强化显著位置管控,明确不得在首页首屏、热搜、弹窗、榜单等醒目位置呈现可能影响未成年人身心健康的信息,避免以平台资源位放大风险内容传播。其二,直面新技术条件下的治理挑战,对算法推荐等提出更明确要求,强调平台需建立健全安全管理制度,严禁向未成年人推送风险信息;对专门面向未成年人服务的网络产品和服务,要求更为严格,全面禁止制作、传播对应的不良信息。其三,完善提示机制,要求内容生产者在信息展示前以文字提示、通用符号等在显著位置标注;平台应提供专属标识功能,形成统一、便捷的提示工具,并对文本、视频等不同载体的标注位置作出细化规定,确保提示“看得见、用得上”。此机制既有助于未成年人增强自我识别与自我保护意识,也便于家长及时发现风险并开展针对性引导。 前景:从治理路径看,《办法》将原则性要求转化为可操作规则,有望推动未成年人网络保护由分散应对走向协同共治:监管部门可据此提高执法统一性与精准度;平台可据此完善内容审核、未成年人模式、推荐策略与风险提示体系;学校与家庭也能以更明确的标准开展网络素养教育和日常监护。下一步,关键在于落实主体责任与技术治理能力同步提升,尤其要在算法治理、内容审核标准细化、未成年人身份识别与隐私保护之间实现平衡,同时加强对新型业态、新传播形态的动态评估与配套规则迭代,形成“标准清晰—执行有力—反馈闭环”的长效机制。
在数字时代,保护未成年人需要法规与技术双管齐下。新规既尊重未成年人成长规律,又表明了治理创新。通过明确标准和多方协作,有望为未成年人营造更清朗的网络空间,助力其健康成长。