谷歌deepmind“声音合成”诈骗成家常便饭

谁能想到,2016年那会儿谷歌的DeepMind用WaveNet搞出了以假乱真的类人声,紧接着MILA实验室孵化的Lyrebird又把声音模仿玩出了花,以至于现在“声音合成”诈骗简直成了家常便饭。这些开源的声音模型就像是一把双刃剑,稍不留神,骗子就能用它们克隆出你和亲友之间的真实对话。像Face、Deepfake还有NeuralTextures这些AI换脸工具更是让人防不胜防,只需10秒就能把陌生人的脸换上去。骗子通常会先通过打骚扰电话偷录声音,再借助Lyrebird或WaveNet这种技术把录音放大成整段对话。哪怕是熟悉的人接起电话,只要对方的语气断档或者尾音颤动不对劲,那多半就是中招了。 当然,最要命的是AI还能帮骗子精准筛选目标。那些天天在朋友圈晒投资截图的人往往容易被当成“股市韭菜”,频繁晒家庭照的人则可能变成“亲情型目标”。有了机器学习刻画的人群画像,骗子的话术就能变得更有针对性。想骗心软的人就走情感路线,想骗贪心的人就说有内部消息。哪怕对方是最亲近的朋友发来语音,也有可能是盗号后通过Xposed插件转发的旧录音。 要想识破这些高科技陷阱其实并不难。对于转发来的语音验证,别着急转账,直接让对方现场说一句只有你们知道的暗语就行了;对于合成出来的声音,多听几秒感受一下“灵魂”是否缺失;对于视频那头的人,让对方把摄像头转一下看看会不会露馅。另外还要注意最小化信息泄露,能用临时号码就别留真实手机号。就算是儿女也得多给父母科普一下这些新骗局。毕竟技术再先进也是靠人驱动的,只要盯紧贪婪和恐惧这两个关键点,那些所谓的黑灰产闭环根本翻不起什么大浪。