生成式引擎优化催生“隐形广告”新风险 人工智能治理亟待关口前移全链条发力

人工智能的发展正在改变信息流通方式。用户向AI寻求建议时,答案质量很大程度上取决于AI检索信息的真实性和客观性。但一种新兴的商业服务正在改变该生态。 生成式引擎优化服务通过分析大模型的内容抓取规律,将商业推广信息融入AI的答案生成过程。简言之,这是人为控制AI信息筛选的方式。当消费者询问购物建议时,AI推荐的产品往往来自经过优化的商业内容,而非基于客观数据的独立判断。 这种做法在广告行业并非首创。搜索引擎时代,网站优化已成为常见商业实践。但随着用户注意力向AI平台转移,商业竞争的焦点也随之转向。利用生成式引擎优化进行推广看似符合市场逻辑,实则产生了更为复杂的合规问题。 生成式引擎优化的核心问题在于其迷惑性。通过将商业推广包装成AI的客观生成内容,这类服务大幅提升了广告的说服力。但这与现行广告法的基本要求相悖。根据广告法,广告必须特点是可识别性,消费者应能清晰辨别其为广告。难以被标识的AI推荐内容实质上侵犯了消费者的知情权。部分服务商为吸引AI"关注"而捏造事实,更涉嫌虚假宣传和不正当竞争。 问题的影响远超消费者权益保护的范畴。AI大模型的迭代升级依赖于优质训练数据。若大量商业属性的同质化信息污染AI训练的数据源头,长期来看将阻碍技术的健康发展,影响AI的准确性和可靠性,导致整个生态的信息质量下滑。 面对这一挑战,传统的监管方式已显得不足。过去的互联网广告监管多采取事后处置模式,而AI时代的特殊性在于,商业信息的注入发生在数据"投喂"阶段,需要在源头进行防控。这要求监管者转变思维,推动监管关口前移,建立全流程的防控机制。 专家认为,完善AI治理需要多管齐下。首先,要对新业态进行深入研判,为商业行为划定清晰的红线,明确哪些做法属于正当竞争,哪些构成违法违规。其次,要明确平台和服务商的责任边界,消除监管的"灰色地带"。再次,要探索"以技治技"的路径,通过提升算法的透明度和可解释性,让消费者和监管部门更好地理解AI的决策过程。 更深层次看,AI"打广告"现象反映出技术变革时代治理所面临的共性挑战。技术发展的超前性对治理者的反应速度提出了考验,而技术议题的专业化则需要更加开放多元的治理格局。这要求监管部门、企业、专家和社会各界形成合力,共同应对新技术带来的新问题。

技术进步与规范发展相辅相成;生成式技术带来的商业变革既孕育着服务升级的新机遇,也考验着社会治理的智慧。历史经验表明,任何颠覆性技术的成熟都需要经历"创新—规范—再创新"的过程。在坚守消费者权益底线的前提下,通过制度创新引导技术向善,我们方能释放数字经济的动能,让技术创新成果更好造福社会。