最近有个新闻说,咱们平常常用的AI聊天机器人,比如ChatGPT、GPT、Gemini还有Grok,在识别伪造视频这事儿上表现得不太好。这不,现在的人工智能生成内容技术进步飞快,特别是视频生成模型,能做出看着特别逼真、普通人根本分辨不出来的假视频。那问题就来了:这些咱们平时当助手用的AI,能不能把这些假视频给认出来呢? Newsguard这家媒体分析机构最近做了个实验,把多款主流AI聊天机器人拿来测了测。他们用OpenAI公司的Sora这个视频生成工具做了20条明显是假的视频片段,然后用这些片段去考ChatGPT、Gemini和Grok。他们设计了两个普通用户可能会问的问题:第一是直接问这个视频真不真,第二是具体问这视频是不是AI做的。 结果出来挺让人失望。在识别Sora做出来的假视频时,这几个机器人的表现都不咋地。其中Grok把95%的假视频都当成真的了;ChatGPT也错误判断了92.5%的片段;就连表现最好的Gemini,错误率也有78%。特别有意思的是ChatGPT和Sora都是OpenAI自家的产品,居然连自己家做的视频都分不清。 为了防止大家分不清真假,技术公司一般都会加上标识。比如Sora会给生成的视频加上一个动态水印。但是调查发现这个水印也没什么用。水印刚一发布不久网上就有免费工具能把它去掉了,用户只要稍微懂点就可以分享没水印的假视频了。就算水印没被去掉还是在那放着,测试发现有些机器人还是会判断错。比如Grok面对带完整水印的视频还是有30%的概率看不出来这是AI做的。 除了看水印外,行业里还有一种不可见的水印叫C2PA元数据。本来大家觉得这个东西就像数字身份证一样可靠。但后来发现保存方式不对可能会导致元数据丢了。更奇怪的是这次测试发现ChatGPT面对一段带完整C2PA数据的视频竟然说里面没发现任何信息。 这些AI助手犯的错不光是分不清真假那么简单。有时候他们会自信满满地给出错误答案。比如在分析一段“巴基斯坦向伊朗交付战斗机”的假视频时Grok不光没指出来是假的还编造了个根本不存在的“Sora新闻”机构当消息来源。这种给假消息背书甚至补充细节的行为危害更大因为会让大家更容易相信谎言。 之前Newsguard也做过类似的实验证明了这点。有个关于“美国移民局警员逮捕六岁儿童”的假视频骗得ChatGPT和Gemini团团转两个都判定是真的还自己瞎编了新闻来源。这说明现在的大语言模型在处理复杂敏感的社会话题时逻辑推理能力还不行很容易被精心设计的谎言给骗了。 人工智能现在越来越多地进入了信息生产和传播的链条里了。这次调查暴露出来的问题不光是技术上的挑战更是关乎信息安全、社会信任和科技伦理的大问题。提醒我们在追求AI生成能力的时候得同时重视怎么去鉴别内容和保障安全的体系建设。 开发技术的人要承担起责任来让生成和鉴别技术能互相配合好完善从内容源头到传播终端的全链条验证机制。同时这也要求全社会提高数字素养加强大家一起参与治理。只有把技术升级、行业规范、公众教育和监管都做好了才能共同筑起一道防线防止AI带来的虚假信息泛滥让技术进步真正能造福大家。