2月28日,美国和以色列联合袭击伊朗的消息一出来,很多人就急着在网上找最新动态。结果有不少博主看出来了机会,拿着AI工具做了好多假的战争视频,一边博眼球一边赚钱。这种事儿以前少见,现在却变成了一股新的浪潮。大家都很担心,这种人工智能做的假信息会弄得人心惶惶。 那几个假视频里,有个最有代表性的是说导弹砸中了特拉维夫,爆炸声特别大。这段视频被300多个帖子转发过,一下子就在网上传开了,好几万次转发。英国人做过调查,有人直接跑去问X平台那个“格罗克”AI聊天机器人真假。结果这机器人挺固执,死活认定那个视频是真的。还有一段AI视频说迪拜哈利法塔着火了,也弄得大家紧张兮兮的,看的人有几千万。 不光是视频,连假的卫星图像也在网上到处都是。澳大利亚昆士兰理工大学的专家蒂莫西·格雷厄姆吐槽说:“现在这事儿确实吓人。过去做个假视频得多难?得专业知识吧?现在几分钟就能搞定,门槛低得几乎没有。” X平台那边也挺头疼,他们说发这些假视频的账号里,“99%”都是为了赚钱。不久前他们刚下了死命令:以后要是创作者发那种武装冲突的AI视频不标名,就暂时不让他用那个变现计划了。牛津互联网研究院的专家马赫莎·阿里马尔达尼也跟着操心:“这太影响大家对网上信息的信任了。” 那个叫亨利·艾德尔的专家说得更吓人:“现在能用的AI工具多得吓人,做出来的东西特别逼真。”格雷厄姆觉得最根本的问题还在平台的赚钱机制上:“互动越多赚钱越多,这和要给大家准确信息本来就是死对头。现在看来没啥好办法解决这矛盾。”