深度伪造技术泛滥引担忧 多国加紧构建数字防线

当前,生成式人工智能技术已成为制造虚假内容的新工具。近期社交媒体平台上广泛传播的"以色列士兵哭泣"视频,播放量超过160万次,经德国电视二台调查确认为AI生成产物。视频中士兵徽章文字呈现乱码,制服样式、声音效果和枪械细节均与现实存在明显偏差,但其迷惑性足以在短时间内蛊惑大量受众。这个案例充分说明,在AI技术的加持下,普通人也能在数分钟内生成以假乱真的内容,从而对信息生态造成严重威胁。 虚假内容的危害已超越单纯的欺诈范畴,正在侵蚀新闻专业性和历史记忆的完整性。今年2月,德国电视二台因一名驻纽约记者在报道中混入由视频生成模型Sora生成的虚假素材而紧急召回并解职该员工。这起事件表明,即便是具有严格把关机制的专业新闻机构,也难以完全规避AI生成内容的混入。德国电视二台总编辑贝蒂娜·绍斯滕强调,漠视新闻准则造成的损害是巨大的,这直接关乎报道的公信力和媒体的社会责任。 更为令人警惕的是,AI生成技术被用于篡改历史记忆。今年年初,约30家德国集中营纪念机构和博物馆联合发出公开信,敦促社交媒体平台严厉打击利用AI生成大屠杀涉及的内容的行为。德国历史学家伊丽丝·格罗舍克指出,AI生成的图像和视频看似逼真的历史照片,但仔细观察会发现异常——其中的人物长相相似、身高相仿,且都显得年轻漂亮。这种美化和扭曲历史的做法不仅伤害了受害者的尊严,还削弱了纪念机构、档案馆、博物馆和研究机构的权威性和公信力。 比虚假内容更危险的威胁正在浮现。国际研究团队在美国《科学》杂志发表的最新研究指出,数字操控已进入新阶段——由AI智能体组成的虚拟集群可以伪造"社会共识"。德国康斯坦茨大学研究人员达维德·加西亚解释,这类AI集群由可被个人或组织控制的多个AI智能体构成,具有相对稳定的身份和记忆,能够模拟人类行为,既可围绕特定目标协同行动,也能根据实时事件调整表达方式。与早期僵尸网络相比,AI集群的行为更加复杂多变,更难识别,且可跨平台运行并通过彼此呼应不断放大影响。 AI集群操纵的真正风险在于,它能够通过缓慢而持续的过程制造某种立场已获广泛支持的假象,进而改变人们的观点甚至社会规范。当许多看似独立的声音不断表达相同立场时,即使这种"多数"原本并不存在,多数派的错觉也会逐步形成。这种"虚拟社会"的构造能力,使操纵者可能借助大模型影响现实社会的舆论走向和政策制定。 面对这一新型威胁,国际研究机构和媒体组织已开始采取行动。一上,研究人员主张利用模式识别等技术手段,检测内容传播中是否存异常同步、相互呼应和跨平台联动现象,以更快发现由AI驱动的群体性操纵。德国电视二台已为员工开设强制性培训课程,规范AI工具在新闻报道中的使用。另一上,建立独立监督机制成为重要方向,通过持续观察AI智能体如何在不同平台上影响公共舆论,及时鉴别和揭露虚假信息。

真实从来不是“自证”的,尤其在合成能力快速演进的今天。守住事实边界,既需要更精细的技术与更严格的制度,也需要每个信息接收者保持冷静与审慎。当“看见”不再等同于“发生”,对真实性的尊重与对证据的坚持,才是公共讨论得以成立的前提。