人工智能弄出一堆假的战争视频来骗大家

哎,你知道吗?就在美以那边对伊朗发动袭击后,好多博主为了赚流量,居然用人工智能弄出一堆假的战争视频来骗大家。专家都觉得这事挺严重的,特别让人担心。美国和以色列2月28日那个时候发动了攻击,大家都跑去网上搜消息,结果有些人就抓住这个机会搞虚假视频来牟利。有个视频特别火,说是导弹打到了以色列的特拉维夫,把大楼炸得震天响。光是这个视频,就在网上被超过300个帖子引用了,转发量好几万呢。 英国那边做了个调查,发现X平台有些用户还真的是去问那个叫“格罗克”的AI聊天机器人,想问问这视频是真是假。结果你猜怎么着?那机器人还多次坚持说那是真的。另外还有一段AI做的迪拜哈利法塔着火的视频,当时大家正担心无人机或者导弹来袭呢,这视频一下就火了,光看的人都好几十万。 澳大利亚昆士兰理工大学有个叫蒂莫西·格雷厄姆的专家就说了:“这问题真的挺吓人的,这场仗让大家没法再忽视这个现象了……以前想做个视频得有专业知识吧?现在只要用几分钟搞定AI工具就行。现在做个以假乱真的视频基本没门槛了。” X平台那边也承认了,说传播这种假AI视频的账号里,“99%”的目的都是为了赚钱。他们之前还宣布过一条规矩:要是创作者发的武装冲突视频没标明是AI生成的,平台就取消他们的变现资格。那是因为这个平台本来有个计划,是给发多了点赞、评论的人付钱呢。 牛津互联网研究院那边有个伊朗问题专家马赫莎·阿里马尔达尼也说了:“这些假视频对大家信任网络信息伤害太大了,连找证据都难了。”生成式AI的专家亨利·艾德尔也补充道:“现在这些工具简直太方便太便宜了,以前哪见过这种情况?” 虽然好多社交媒体公司都在说正在调整审核系统来对付这种AI生成的内容,但专家们也坦言这事儿没啥简单的解决办法。“最根本的矛盾是在互动变现机制和准确信息之间”,格雷厄姆觉得这个问题可能永远没法完全解决吧。