哎,你听说了没?今年“3·15”晚会有个新问题让人心惊肉跳,需要咱们大家伙儿多留个心眼。除了咱熟悉的食品安全那些老事儿,这次又蹦出来个让人头疼的事——AI被人“投毒”了。说白了,就是生成式引擎优化(GEO)这个技术被坏人给乱用了。有些黑心服务商大批量地弄出一堆假信息,专门喂给AI大模型,好把结果给控制了,甚至还能把那些虚构出来的东西包装成AI推荐的好东西。 这种套路听着是不是有点耳熟?当年搜索引擎最火的时候,搜索引擎推荐广告那是一抓一大把,出了不少问题。现在的AI被“投毒”,那风险看着跟那会儿挺像的。技术越来越厉害,背后的猫腻也越来越多了,早就不是平台收点钱引流那么简单了。甚至连那些AI大模型的开发者,都有可能被GEO服务商给绕过去了。信息和卖信息的地方本来就值钱得很。 听媒体说,现在GEO这玩意儿已经成了一个完整的产业链了。有些服务商直接开价每季度3600元到好几万呢,就能让你指定的品牌跑到AI回答的头里去。技术本身是个好东西不假,但问题出在AI大模型的运作机制上了。多数大模型连上网的时候都得靠第三方平台给它摘要信息,它自己根本不会去看原文、也不会去确认是不是真的。 在利益的驱使下,GEO大模型就爱找那种特别整齐、完整的内容来查。坏人就大批量地造出这种AI喜欢抓的东西,专门把你指定的品牌推到更容易被选的位置上去。这不仅是把单个信息源给污染了,更要命的是AI可能会反复引用这些信息,最后形成那种特别难清理的“数字污染”。 这种假消息可比那种夸张的广告营销更难让人分辨出来。AI产生幻觉带来的风险和影响面可不小了,以后技术再普及下去这事儿可能会更麻烦。面对发展这么快的AI技术,以前那套监管思路肯定得跟上变化才行。 以前搞搜索引擎优化好歹还能找到点蛛丝马迹,现在AI成了个“黑箱”,问题就变得更隐蔽、更复杂了。这就意味着治理的手段也得跟着技术一起飞。 对于那些用AI大模型的平台来说,在搜索、排序和展示结果的时候得加把劲了,建立更严格的广告识别和过滤机制。遇到疑似推销的内容得明明白白标出来,还得使劲核查信源质量才行。 同时呢,大模型不能光靠一个地方获取信息啊,得从多个独立又可信的渠道去取信源数据。这样就能避免因为只听一家话而导致的偏见影响结果。 要想做到这点,AI开发者得花更多的力气去清洗数据和做标注了。建立一个更稳当的内容审核体系才是正理儿!