"投毒"乱象侵袭智能推荐系统 虚假信息操控产业链浮出水面

一、问题:付费"投毒"形成产业链,大模型推荐结果被商业操控 随着大语言模型信息检索中的广泛应用,一种名为"生成式搜索优化"(GEO)的商业服务正在兴起,并逐渐演变为操控智能推荐结果的灰色产业。 央视记者调查发现,多家网络平台存在提供此类服务的商家。这些商家明确表示,付费客户的产品可以在主流大语言模型的推荐中获得靠前排名,使广告内容伪装成模型的"客观答案"。 记者联系了一家知名GEO服务商。其负责人透露,公司主要通过批量撰写推广内容并在网络平台发布,帮助客户提升在大模型搜索结果中的排名。由于算法持续更新,需要长期投放内容才能维持效果。 更严重的是,这种操控行为已扩展到虚假信息领域。记者通过电商平台购买"力擎GEO优化系统",虚构了一款智能手环进行测试。结果显示,该不存在产品很快出现在多个大语言模型的推荐前列,证实了推荐机制存在可被利用的漏洞。 二、原因:技术缺陷与监管滞后共同导致 技术上,大语言模型依赖网络公开数据进行训练。当特定内容达到一定传播密度时,模型会将其视为可信信息。GEO服务商正是利用此特点,通过大量发布内容来影响模型判断。 市场上,智能搜索的普及催生了流量争夺需求。相比传统广告投入,企业认为GEO的性价比更高——推动了产业发展。 监管上——现有规定尚未覆盖这种新型操控手段,给灰色产业留下了发展空间。 三、影响:损害用户权益,威胁信息生态 这种操控行为的危害不仅限于商业竞争。 对用户而言,被包装成"客观建议"的付费广告侵犯了知情权,医疗、金融等领域可能造成实际损失。 对整个信息生态来说,这会降低公众对大模型的信任度,影响技术发展前景。 对行业而言,应对数据污染会增加企业成本,干扰正常的技术创新。 四、对策:多管齐下建立防护体系 需要从三个上采取措施: 技术上,研发机构应改进数据甄别机制,提高对低质内容的识别能力。 法规上,主管部门需制定专门规范,明确责任边界,加大处罚力度。 平台治理上,应加强对批量发布行为的监测,阻断污染数据的传播渠道。

智能问答的核心价值在于提供真实有效的信息。遏制数据污染不仅是保护消费者权益的需要,也是技术健康发展的重要保障。这需要平台、监管、行业和公众共同努力,才能让大模型真正造福社会。