黑产背后的套路,还能在诈骗刚开始的时候就拦住它

Soul借着AI的力量筑起了一道安全防线,这个2025年在生态治理上取得了不少好成绩。前段时间,Soul App发布了一份年度报告,把平台用AI技术做核心,加上社会共治还有警察和企业合作的成果都给讲了。Soul把自家研发的7种AI模型全都放进了治理过程里,这样一来,搞诈骗的人少了20%,还有人冒充未成年人骗不了钱了。靠着这些技术,给大家搭了个社交安全的保护墙。 那个AI反诈计划特别管用,一边用技术拦骗子,一边帮用户提高防范意识。6个识别模型各有各的本事,能看出黑产背后的套路,还能在诈骗刚开始的时候就拦住它。外链和色情交易这些违规内容也能被覆盖到,再加上一套提醒系统,让防范更全面。Soul升级了治理的流程,用AI技术平均每天能拦掉5万条假消息,让黑产没处藏身。 Soul知道一个人搞不定安全问题,所以跟浦东反诈中心合作得挺深。这一年给警察发了100多条线索,帮调查了30多次案件,参加了100多次警企合作。通过“站内拦+站外打”的办法,让违法的人都跑不掉。 以前对付网络暴力比较费劲,现在Soul用AI模型来判断说话人的情绪意图。每天提醒大家讲文明超20万次,还搞活动让93.4万人签了友善声明。保护未成年人更是他们的底线,用AI分析行为习惯,让人冒充未成年人的成功率降到了99%,比以前准了50%。2025年他们上线了51条保护措施,注册还得严格检查。 另外就是清理垃圾内容了。机器和人工一起干活,一年处理了1642.5万条违规内容和76.7万个账号,广场上的低质帖子每天能清掉12万条。这次发布报告说明治理进入新阶段了。展望2026年,Soul还要多投钱搞研发,把社区共治做大做强。他们的目标是让每一个用户都来参与保护生态安全。