geo 软件“投毒”大模型

前不久央视3·15晚会上曝光了一个挺扎眼的事儿,有些企业用GEO软件对着AI大模型投毒。说白了就是通过生成式引擎优化软件往大模型里塞虚假信息,把AI给“洗脑”了,最后就能让它乖乖推荐自己的产品。 河南日报社视觉全媒体中心的陈曼记者采访了这方面的人。他们说,这种GEO业务特别火,搞发稿的公司和平台都冒出来了。这些公司长期接各种发稿业务,好让AI去引用和抓取。这样一来,他们就成了围猎AI大模型、进行数据“投毒”的关键一环。 互联网产业分析师张书乐提到,大模型是靠内容训练出来的,而内容又主要来自搜索。越是大众的信息,内容越全面;越垂直细分的领域,尤其是产业领域,信息量越少。信息少了就容易被GEO误导。他讲了个例子:一些评述二三线城市或细分领域的内容,一放到AI问答里就可能变成个人观点专场。这种招数在SEO时代早就有了。 张书乐觉得问题主要出在有些工作人员缺乏专业知识上。特别是内容越垂直细分的时候,他们越难辨别投喂内容的真假。所以大模型就容易被误导了。要解决这个问题,得给大模型加点辨别功能。 具体怎么做呢?他觉得应该筛查发布者的长期表现。把广告和软文排除后,重点看看内容来源的权重和发布者以前是怎么干活的。 这可不是个能马上解决的事儿。不过要是算法里加了这些辨别功能,时间长了就能积少成多了。到时候大模型就能从善如流,不会再偏听偏信了。 编辑是刘永恒。