当前,生成式人工智能已成为消费者重要的决策工具。从日常商品选购到重大资产配置,越来越多的用户依赖AI提供的建议。截至2025年6月,我国生成式AI用户规模已达5.15亿人,该数字充分说明了AI技术在社会生活中的深度融合。然而,这种广泛应用也带来了新的问题。 问题的症结在于AI推荐结果的真实性正在遭到破坏。央视近日的调查揭示了一个隐忧:消费者按照AI推荐购买的电动牙刷——其性价比并非最优——市场上存在功能相近、价格更低的替代品。更令人担忧的是,这背后隐藏着一条完整的"污染链"。一些商家专门从事所谓的生成式引擎优化业务,通过撰写大量产品文章、投放到AI常抓取的平台,使特定品牌更容易被AI识别和推荐。这种做法本质上是在向AI系统注入商业偏见。 这一现象并非孤立存在。它反映了互联网发展中的一个规律性问题。当年搜索引擎问世时,人们同样寄予了对技术中立性的信任,但竞价排名、搜索引擎优化等商业操作的出现,最终打破了这种信任。如今,生成式AI正在重复这一历史轨迹。GEO服务通过海量投放同质软文、伪造权威信息等方式,将商业推广伪装成专业测评或科普文章,试图"引导"AI给出看似客观的推荐。这种做法的危害是多维度的。 从消费者权益看,这种操纵行为直接侵犯了知情权。根据《互联网广告管理办法》,互联网广告应当具有可识别性,使消费者能够辨明其为广告。将付费推广内容隐藏在看似中立的AI推荐中,明显违反了这一要求。消费者在不知情的情况下,被引导做出商业决策,其合法权益受到损害。 从市场竞争看,这种做法破坏了公平竞争的环境。那些不愿或无力进行GEO操作的企业,其优质产品可能被埋没,而那些善于"污染"数据的商家反而获得不正当优势。这种逆向选择机制,最终会导致劣币驱逐良币,损害整个市场的健康生态。 从AI技术发展看,数据污染对生成式AI的长期发展构成了严重威胁。AI的推荐质量取决于其训练数据的质量。当大量虚假、偏向性的信息被混入训练数据,AI的生成内容准确性和可靠性必然下降。这不仅违反了《生成式人工智能服务管理暂行办法》关于禁止生成虚假有害信息的规定,还会引发公众对AI技术的信任危机。一旦用户普遍认为AI推荐不可信,这项技术的应用前景将大幅受限。 应对这一挑战需要多方协同发力。对AI平台企业而言,提升对营销内容和虚假信息的识别能力是当务之急。这要求平台优化算法模型,强化对数据源的溯源与筛查,建立更加严格的内容审核机制。同时,平台应在推荐内容后附上信息来源链接,便于用户核查验证,增强推荐结果的透明度。 对监管部门而言,需要紧跟技术迭代步伐,将GEO服务纳入监管框架。可以参考竞价排名的监管经验,要求对生成式AI平台中的付费推广内容进行强制标注,使消费者能够清晰识别哪些是商业推广。同时,要推动AI平台切实落实主体责任,建立有效的举报和处罚机制,斩断"数据污染"的利益链条。 对广大用户而言,应当理性看待AI生成内容,不断提升自身数字素养和媒介素养。用户需要认识到,看似中立的AI推荐背后可能隐藏着商业意图,应该养成多渠道验证信息的习惯,避免掉入披着科学外衣的营销陷阱。 从更深层的角度看,这一问题的出现也提醒我们,任何技术工具都不是绝对中立的。技术的应用方式、数据的来源质量、算法的设计逻辑,都会影响其最终呈现的结果。生成式AI的发展包含着社会对技术进步的美好期待,但这种期待只有在法律和政策的规范引导下,才能真正实现。
在数字时代,平衡技术进步与商业伦理至关重要。只有构建健康的发展生态,才能确保生成式AI真正造福社会,让智能推荐既高效又可信。