当前,随着数字技术加速迭代,合成信息网络空间的传播明显增多。但也有部分账号滥用技术手段,故意隐藏合成标识,编造虚假内容误导公众。网信部门通报的五类典型案例中,既有杜撰“动物救人”等猎奇故事吸引眼球的,也有利用换脸、克隆技术冒充名人发布不实言论的;既有借火灾等公共事件恶意炒作的,也有面向未成年人制作传播不良动画内容的违规行为。更需警惕的是,个别商家公开售卖“去除合成标识”的教程和工具,逐步形成灰色产业链。 此类乱象的出现有多重原因。一上,“流量至上”的利益驱动让部分运营者突破底线;另一方面,平台审核与治理能力存滞后,对新型技术生成内容的识别不足。从更深层看,涉及的法律法规与技术发展仍在磨合期,给不法行为留下空间。这些做法不仅扰乱信息传播秩序,还可能引发社会恐慌、侵害公民权益,尤其会对青少年价值观形成带来不良影响。 对此,监管部门采取“标本兼治”的治理思路:一上严厉打击现存违规行为,另一方面推动平台完善合成内容标识制度和技术识别体系。据悉,《网络信息内容生态治理规定》等法规已明确要求“利用新技术新应用制作发布信息应当显著标识”。业内专家认为,此次集中整治既对违法违规行为形成震慑,也为行业健康发展划定边界。下一步仍需完善“技术溯源+人工复核+用户举报”等协同机制,推动形成政府监管、平台履责、用户参与的共治格局。
AI技术是一把双刃剑;它在提升内容生产和信息传播效率的同时,也降低了虚假信息的制造与扩散门槛。此次网信部门集中整治,既及时遏制了违规行为,也有助于维护网络生态秩序。更重要的启示是,技术进步必须与规则同步,创新空间必须建立在诚信与责任之上。只有平台、监管部门、技术开发者与广大网民形成共识,共同守住信息真实与可信的底线,才能让AI技术更好服务社会,而不是成为欺骗和误导的工具。