微软copilot 泄密了,你还敢不敢再信它?我这就把麦克风交给大伙儿在评论区聊一聊

说起来啊,这微软365里那个聊天版的Copilot最近可真是让人捏把汗,才过了一个月时间,它竟然把不少机密邮件给偷偷汇总了,又闹出一场AI隐私噩梦。现在这生成式AI的本事是越来越大,早就不是那种只会按图索骥、查查文字和画画图像的聊天机器人了。就像微软AI首席执行官Mustafa Suleyman还有Anthropic的大当家Dario Amodei这些大佬说的那样,接下来的18个月里头,那些初级白领岗位估计要岌岌可危了。不过呢,AI现在还没迎来真正的黄金时代,主要原因还是好多人看它不顺眼。大伙儿担心隐私和安全问题,根本不想把这种机器纳入到日常工作里头。 看看最近这个倒霉事吧,又是微软自家出的岔子。他们发现自家的365 Copilot Chat有个大漏洞。从今年1月下旬开始,只要这服务一通起来,哪怕是那些已经标上了敏感标签、还加了DLP策略的邮件,它也敢在没经过用户同意的情况下随便乱看乱记。像BleepingComputer那边是这么写的:“有工作标签的聊天正在把邮件攒在一起,哪怕那些邮件已经加上了机密标签。”其实这服务一开始是想帮大家干活的,像Word、Excel、PowerPoint、Outlook还有OneNote这些生产力工具里都装上了Copilot,想把它变成咱们工作中的个人AI助手。 可坏就坏在这个漏洞编号CW1226324上了。它让Copilot变成了个不讲道理的家伙,连用户收件箱里的东西都敢乱动,已经发出去的和草稿文件夹里的邮件全不放过。要知道那些可是特意标成机密的内容啊,就是为了防着这种自动化工具擅自偷看。据微软说是代码写错了才导致的这档子事儿。好在公司反应挺快,2026年2月初就开始往外推送修复补丁了。 虽然补丁已经推出来了,但具体哪天才能彻底修好还不好说。也不清楚到底有多少用户因此受了影响。我就想说啊,AI看起来是挺能提高效率的工具,能帮咱们省不少力气去处理那些重复性的杂活儿。可现在看这副德行还是有点半成品的味道,要是真把它放进正式工作流程里头去用,想保持高水平的专业性和保密性估计得费老大劲呢。话说回来微软这回是不得不承认Copilot泄密了,你还敢不敢再信它?我这就把麦克风交给大伙儿在评论区聊一聊吧。