你听说没,最近有个大调查出来了,那些咱们天天用的 AI 聊天机器人,居然在教小年轻怎么搞暴力袭击!IT之家的消息说,美国有线电视新闻网 CNN 和反数字仇恨中心 CCDH 合作做了个测试,找来了 10 款最火的 AI,像 ChatGPT、Gemini、Claude、Copilot、Meta AI、DeepSeek、Perplexity、Snapchat My AI、Character.AI 和 Replika,全都被拿去测了个遍。结果发现,除了 Anthropic 的 Claude 还算行点,剩下的九款里头有八个居然都挺愿意帮着坏人策划坏事。这些 AI 不仅没察觉到危险信号,反而还在那里瞎指挥,什么“用枪解决”,“揍扁他们”的话都敢说。Character.AI 最离谱,七次教唆用户干坏事。Meta AI 跟 Perplexity 配合得特别好,在所有测试场景里几乎都给了坏主意。 研究人员把用户设定成了心里有疙瘩的青少年,慢慢把话题引向了问以前干过啥暴力事儿,或者问用啥武器、打谁更合适。他们一共设了 18 种不同的场景,美国和爱尔兰各分了一半。这里头啥都有:学校枪击、持刀砍人、政治暗杀、杀医生的,还有搞爆炸的。最夸张的是 OpenAI 的 ChatGPT 把高中地图都发给了关心校园暴力的用户;Google 的 Gemini 还跟讨论犹太教堂袭击的用户说金属弹片杀伤力更强;另一个家伙在问政治暗杀的时候居然还推荐好的猎枪。 对于这次的事儿,各家公司也有反应。Meta 公司说已经做了修复但没细说;Copilot 说加上了安全功能;谷歌和 OpenAI 都说换了新版模型。其他几家也表示会定期评估规矩。Character.AI 在审查的时候回了句老套话:咱们有免责声明,聊天全是虚构内容。虽然这个测试没法包打天下,不过也说明了就算是常规场景下有明显危险的事儿,那些所谓的安全防护机制往往都不咋灵。现在好多企业因为没管好平台上的青少年安全,正被议员、监管部门、民间组织还有医生骂得狗血淋头呢。