记者近日获悉,国家互联网信息办公室等八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》(以下简称“办法”)。随着互联网深度融入学习生活,未成年人触网率持续提升,网络空间成为其获取知识、社交互动与休闲娱乐的重要场域。另外,部分内容以猎奇、刺激、流量为导向,借助推荐机制快速扩散,叠加个人信息泄露、未成年人形象被不当利用等问题,容易对未成年人行为习惯、价值观塑造和心理健康带来不利影响。社会各界对加强未成年人网络保护、深入净化网络环境的呼声不断增强,出台更具可操作性的制度规范已成为现实需要。 一是直面问题,划定“可能影响”边界。办法以分类方式对可能影响未成年人身心健康的网络信息进行界定,强调从源头识别与过程管控入手,回应“什么内容需要重点防范、哪些场景更易触达未成年人”等关键问题。根据办法,对应的网络信息主要涵盖四类情形:可能引发或诱导未成年人模仿、实施不良行为的信息;可能对未成年人价值观造成负面影响的信息;不当使用未成年人形象的信息;不当披露和使用未成年人个人信息的信息。四类划分既覆盖行为诱导、价值侵蚀等常见风险点,也将近年来更为突出的“未成年人形象被商业化、娱乐化甚至低俗化利用”等问题纳入治理范围,体现出对现实治理痛点的精准回应。 二是分析原因,技术迭代放大内容传播风险。未成年人易受外界刺激与同伴效应影响,自我保护能力相对不足,面对复杂信息环境更需要制度与技术双重护航。当前网络内容生产门槛降低,短视频、直播、互动社区等形态快速发展,内容传播呈现碎片化、即时化、情绪化特征。部分平台为追求停留时长与点击转化,可能在算法推荐、热搜榜单、弹窗推送等关键环节形成“流量聚焦”,使风险内容更容易被未成年人接触并反复强化。与此同时,新技术新应用带来内容生成与传播方式变化,既提升供给效率,也可能带来虚假、夸大、低俗、诱导等风险,治理难度随之上升。办法基于此提出防范要求,意在推动从“事后处置”向“事前预防、动态管控”转变。 三是评估影响,明确责任边界促进治理协同。办法作为落实《未成年人网络保护条例》的重要举措,为网站平台、内容创作者、网络产品和服务提供者等主体提供更清晰的行为指引。其核心导向在于压实各方责任:网络信息内容生产者以及网络产品和服务提供者应当对可能影响未成年人身心健康的网络信息采取防范和抵制措施,不能以“用户自发发布”“平台中立”作为规避义务的理由。值得关注的是,办法对重点呈现位置提出明确限制,要求网络产品和服务提供者不得在首页首屏、弹窗、热搜、榜单、推荐、精选等醒目位置、易引起用户关注的关键环节呈现相关信息。这个规定紧扣传播链条中的“高曝光入口”,有助于从机制上减少未成年人被动触达风险内容的概率,也为平台优化产品设计、调整推荐策略提供了制度依据。 四是提出对策,构建“分类识别+重点环节管控+技术治理”组合拳。治理未成年人网络环境,需要从内容标准、产品机制、技术手段与社会共治多端发力。就平台而言,应围绕办法明确的四类信息建立细化的识别规则与审核策略,完善分级管理、标签提示、拦截限流、举报处置等闭环机制,特别是对首页首屏、热搜榜单等流量聚集环节强化把关。对内容生产者而言,应严格遵守与未成年人相关的内容边界,避免以未成年人形象博取关注或进行变相营销,尊重并保护未成年人个人信息安全。对监管与行业组织而言,可在不增加不必要合规负担的前提下,推动统一标准落地,促进未成年人模式、青少年内容池、家长监护工具等功能改进,形成更可预期、更可执行的治理体系。 五是展望前景,从制度供给走向长效治理。办法明确将于2026年3月1日起施行,为相关主体预留了完善制度、升级技术、优化流程的准备期。预计随着办法落地,平台对风险内容的识别处置将更具标准化和可追责性,未成年人在热点推荐、弹窗推送等高风险场景被触达不良信息的概率有望降低。同时也应看到,网络生态持续演进,风险内容形态可能更隐蔽、更碎片、更跨平台,治理需与技术发展同步迭代,通过完善评估机制、强化数据与算法治理、推动多部门协同与社会参与,提升预防性治理能力。
在数字化时代,守护未成年人健康成长需要全社会共同努力;这项制度的出台不仅是规则制定,更是对"培养什么样的人"这个根本问题的时代回应。当技术发展与人文关怀找到平衡点,未成年人才能在清朗的网络空间中健康成长。