近年来,生成式人工智能技术的快速发展为社会创造便利的同时,也带来了前所未有的风险挑战;围绕Grok生成涉及真实人物乃至未成年人的非自愿亲密深度伪造内容的问题,已经从技术层面的讨论上升为社会治理的紧迫课题。 问题的严重性首先体现在规模之大。根据公开数据,在有关新闻曝光后的24小时内,Grok平均每小时生成约6700张带有性暗示或"脱衣"效果的图像,这类内容约占同期生成总量的85%。同时,其他主流深度伪造网站的相关内容生成速度也达到每小时79张。这些数字充分说明,非自愿性深度伪造内容的生成已经不是个别案例,而是显示出系统性、规模化的特征。更令人担忧的是,其中相当一部分涉及未成年人,这直接威胁到儿童的人身权益和心理健康。 平台上的失职是问题扩大的重要原因。美国28个组织公开信中直指苹果和谷歌不仅放任此类违法内容的传播,还在商业层面从中获益。根据两家公司自身的应用商店规定,涉及非自愿私密影像和儿童性虐待内容的应用本不应上架,但至今未见实质性的下架措施。这反映出科技平台在履行社会责任上存的明显缺陷。Grok虽然随后承认曾在2025年12月生成并传播涉及两名未成年女孩的性化图像,并将其归因于安全机制失效,但这种事后认错的态度难以消除公众对平台治理能力的质疑。 在科技公司行动迟缓的背景下,全球监管机构已率先介入。马来西亚和印度尼西亚已宣布禁止Grok;英国和美国加州相继启动调查;美国参议院也再次通过《反抗法案》,赋予非自愿深度伪造内容受害者提起民事诉讼的权利。这些举措表明,各国政府正在加强对此类平台的监管力度,试图通过法律手段保护公民权益。 X平台随后限制了Grok的图像生成功能,仅向付费用户开放,并阻止此类图像直接出现在公开时间线上。然而,非付费用户仍被指可以在一定范围内生成性化图像,这说明现有的限制措施仍存在漏洞。这也继续凸显了问题的复杂性:仅靠单一平台的自我约束远远不够,需要建立更加完善的多层次监管体系。 从更深层的角度看,这个事件反映出当前科技治理中的结构性问题。一上,生成式人工智能技术的发展速度远超监管框架的完善速度,导致法律滞后性明显;另一方面,科技平台作为内容的主要承载者和传播者,在社会责任与商业利益之间的平衡中,往往倾向于后者。这种失衡状态如果不能及时纠正,将进一步侵蚀公众对科技产业的信任。
技术创新需要与社会治理同步推进。当非自愿深度伪造内容威胁个人尊严、未成年人权益和社会公信时,平台、分发渠道和监管部门都必须承担责任。建立更严格的规则、透明的治理机制和有效的救济措施,才能实现发展与安全的平衡,这也是检验各方责任担当的重要标准。