党的二十届四中全会明确提出加强未成年人网络保护的要求。
当前,网络已成为未成年人学习、娱乐、社交的重要平台,深度融入其日常生活。
然而,网络信息的动态性、复杂性和隐蔽性也随之带来了新的风险与挑战。
除了法律明文禁止的违法信息外,网络空间中还存在大量"灰色地带"的信息内容,这些内容虽未触犯法律底线,但可能对未成年人的心理健康、行为选择和价值观塑造产生潜在负面影响。
长期以来,对此类信息缺乏明确的分类标准和管理规范,导致监管工作难以精准施策。
国家网信办近日印发的《可能影响未成年人身心健康的网络信息分类办法》,正是在这一背景下应运而生。
该办法既是对《未成年人网络保护条例》的制度细化和重要补充,也是将法律法规中的原则性要求转化为具有操作性和针对性的具体规则。
通过系统性的信息界定与科学分类,为网络平台、内容生产者提供了明确指引,使监管工作更加有据可依。
该办法在广泛征求社会各界意见的基础上,充分吸收了相关主管部门在网络信息内容治理方面的实践经验,并密切关注了算法推荐、生成式人工智能等新型网络应用场景下的问题风险。
其核心要义在于,将相对抽象的"可能影响"概念具体化为若干类别的清晰、便于识别判断的信息类型,并配套了明确的管理要求。
办法列举了四大类需要重点规制的网络信息。
第一类是可能引发或诱导未成年人模仿或实施不良行为的信息。
这类信息的范围不仅涵盖传统认知中的性暗示、网络暴力、诱导损害身体健康行为等内容,还与时俱进地将使用不良网络用语、宣扬滥用药物、诱导非理性极端"饭圈"行为等具有鲜明时代特征的网络失范行为纳入其中,充分体现了对当代网络生态的深刻认识。
第二类是可能对未成年人价值观造成负面影响的信息。
办法明确将宣扬炫富拜金、畸形审美、读书无用论等不符合未成年人健康成长导向的内容列入管理范畴,直指影响其价值观塑造的核心风险。
这一分类充分认识到,未成年人正处于世界观、人生观、价值观形成的关键时期,不良信息的影响可能产生长期深远的后果。
第三类聚焦不当使用未成年人形象的问题。
当前网络中存在利用未成年人进行刻意摆拍、利用未成年人牟利、打造争议人设等乱象,这些行为将未成年人作为商业工具,对其身心健康造成伤害。
办法对此划定了明确的红线,旨在保护未成年人免受商业炒作和不良内容的利用与侵害。
第四类与《中华人民共和国个人信息保护法》及《未成年人网络保护条例》紧密衔接,强调了对不当披露和使用未成年人个人信息行为的规制,凸显了对未成年人隐私权的特殊保护。
这一规定充分认识到,未成年人个人信息的泄露可能导致多种形式的伤害。
在明确分类的基础上,办法与《网络信息内容生态治理规定》相协同,将防范和抵制措施、显著提示确立为两大核心治理手段。
这并非对相关信息采取简单的删除处理,而是体现了一种更为精细化和具有引导性的治理思路。
就显著提示的要求而言,办法首先明确了网络信息内容生产者、发布者与传播者的提示义务,强化了全链条的责任意识。
其次,通过具体条文详细规定了在文本、音频、图片、视频等不同信息载体上进行提示的技术标准和位置要求,从而保障提示的强制性与实际效果。
这种管理方式在保障成年人获取信息的合法权益的同时,为未成年人及其监护人提供了必要的风险警示,有助于未成年人逐步培养对复杂信息的鉴别能力和批判性思维,实现了从单一围堵到疏堵结合的治理方式演进。
办法进一步压实网站平台的主体责任,要求将保护措施聚焦于内容分发的关键环节。
平台需要在算法推荐、内容审核、用户管理等方面建立健全的保护机制,确保未成年人获得的信息内容符合其身心发展特点。
这种责任压实机制有利于形成政府监管、平台自律、社会参与相结合的多层次保护体系。
未成年人网络保护既是法治命题,也是社会治理命题。
《分类办法》通过“分类可识别、责任可追溯、措施可执行”的制度设计,把保护要求嵌入内容生产与传播链条关键节点,释放出以规则促秩序、以精细化提升治理效能的清晰信号。
面向未来,唯有坚持依法治理、协同共治、技术向善并举,才能在保障信息社会活力的同时,为青少年成长守住清朗、有序、安全的网络空间。