微软GitHub平台这次给他们的AI项目“Copilot”装上了新的数据补给线,就把用它的时候留下的互动记录,拿去给自家的AI模型吃了。虽然这玩意儿挺好用,可当初刚出来的时候也闹了不少争议,主要就是因为训练时用了咱们码在GitHub上的代码。到了2026年4月,“Copilot”又重新上架了,不过这回微软好歹让人看清楚了这点。在4月24日这天,“Copilot”的官方政策里写得清清楚楚:从那天开始,无论是免费版、Pro版还是Pro+版的用户,你们平时输入的代码、收到的输出、还有上下文信息都要拿来训练AI模型,要是不想参与就自己退出就行。 好消息是这事儿对普通用户很方便,坏消息是它不适合那些高级别的商业和企业用户。根据公告显示,只有“Copilot Free”、“Pro”、“Pro+”这几个面向个人的版本会受影响,企业版(Business)和大企业版(Enterprise)这回就不跟着遭殃了。如果你打算参与这个数据共享计划,GitHub就会用你发给它的输入内容、写的注释文档、还有文件名和仓库结构这些东西来训练模型。 当然如果你不想被这么盯着看也没关系,咱们可以去GitHub设置里把隐私开关关掉。如果你从来都没用过“Copilot”,那么这块“大脑”根本不会收到你的数据。要是之前已经设过不再收集数据的选项了,建议大家还是再去确认一下。毕竟任何AI模型都得靠咱们这些人的真材实料养着才行。要是AI自己会学了那这套政策也就没用了。