调查发现,多家网络平台出现名为GEO的推广服务。服务商声称,付费即可让客户在主流AI模型的搜索结果中"排名靠前",甚至将广告包装成"标准答案"。记者暗访获悉,部分从业者以"操控模型""定向推荐"为卖点,承诺实现搜索结果前三展示。为维持效果,他们还会持续投放涉及的内容,声称需要"不断喂养"模型以适应算法更新。 原因分析: 业内人士指出——GEO本质是内容优化手段——但被异化为"信息操纵工具"。具体操作包括:批量生成软文,通过自媒体矩阵集中发布,利用关键词优化提高抓取率。当AI模型检索网络信息时,容易将这些密集出现的内容作为参考来源。同时,算法快速迭代的特性,也催生了"持续喂养"的灰色产业链。 现实影响: 测试显示,购买"优化服务"后,虚构的产品信息很快出现在AI问答中,甚至包含夸大宣传。这带来三重危害:一是误导消费者,AI回答的权威性容易让人误信营销内容;二是不正当竞争,合规商家被挤压;三是可能引发医疗、金融等领域的虚假信息风险。 解决建议: 1. 平台治理 - 加强内容审核,识别异常发布账号和传播链条 - 建立回答溯源机制,标注信息来源和时间 - 降低低可信内容的权重 2. 规范标识 - 明确标注广告推广内容 - 严格审核以"测评"为名的软文 3. 强化监管 - 打击虚假宣传和黑灰产 - 建立跨平台审核机制 - 查处违规服务机构 4. 引导合规 - 鼓励企业用真实数据和权威认证获取推荐 - 减少对"喂养式"营销的依赖 行业展望: 随着AI应用普及,信息真实性将成为基础设施。未来可能出现三大趋势:平台加强多源验证机制、监管部门完善算法治理规则、企业转向以质量为核心的内容建设。
当技术遇上商业利益,这场关于AI推荐真实性的较量,不仅考验监管能力,更关乎数字时代的核心课题:如何在技术发展中坚守真实底线。这需要技术创新、制度完善和行业自律的共同努力。