生成式问答成新“流量入口”——GEO营销推高品牌露出,倒逼智能推荐透明与监管升级

近期,多名用户反映在使用智能问答服务时,频繁接收到特定品牌的推荐信息,这些内容被嵌入回答中,却未明确告知其商业属性。

北京中闻律师事务所律师刘春在筹备会议时,通过智能助手获取茶歇咖啡推荐,结果出现多个陌生品牌,引发其对AI"隐性广告"的警觉。

调查显示,这一现象与新兴的生成式引擎优化技术密切相关。

2024年6月,普林斯顿大学等机构联合发表的论文首次提出GEO概念,揭示AI生成内容存在可优化的技术路径。

服务商通过分析大模型内容偏好,在权威平台高频投放经优化的问答、数据图表等内容,从而提升品牌信息被AI检索引用的概率。

中央财经大学专家陈端指出,该技术本质是通过语义适配和信源强化,影响AI的信息筛选逻辑。

目前,国内GEO服务已形成完整产业链。

记者调查发现,多家服务商在电商平台公开提供"AI搜索排名优化"服务,承诺通过KPI考核保障效果。

某服务商宣传资料显示,其优化内容可直接转化为AI回答,使品牌搜索排名提升40%以上。

行业人士透露,头部服务商年订单量已突破万单,客户涵盖快消、金融等多个领域。

这种技术应用带来三重隐忧:一是模糊信息中立性,用户难以辨别AI回答中的商业意图;二是可能滋生虚假信息,部分服务商为提升效果编造数据;三是形成技术壁垒,中小企业可能因成本限制丧失曝光机会。

中国消费者协会2024年调查显示,68%受访者认为AI推荐应标注商业合作信息。

针对行业乱象,监管部门正加快制度建设。

工信部相关负责人表示,正在研究制定《生成式人工智能信息服务管理规定》实施细则,拟要求AI服务商建立内容溯源机制,对商业推广内容进行显著标识。

北京大学数字法治研究中心建议,可参照互联网广告管理办法,将GEO纳入数字营销监管范畴。

行业专家预测,随着大模型技术普及,GEO市场规模可能在2025年突破50亿元。

但长期健康发展需平衡技术创新与伦理约束,建立包含算法透明度、用户知情权、竞争公平性在内的综合治理体系。

AI时代的到来本应让信息获取更加便捷、决策更加科学。

然而,当商业力量开始有意识地影响AI的回答时,我们面临的不仅是技术问题,更是关乎信息伦理和市场秩序的深层问题。

GEO现象的出现,正是一个警示:技术进步必须伴随相应的治理完善。

唯有通过建立健全的规范机制、强化平台责任、提升用户意识,才能确保AI在信息时代真正造福社会,而非沦为商业操纵的工具。

这是摆在全社会面前的共同课题。