问题——大模型推荐被操纵,“看似客观”实为营销植入 在“3·15晚会”曝光的案例中,记者探访显示,一些机构利用所谓GEO技术,通过自动化工具捏造产品信息、卖点与用户评价,并批量生成软文投放至自媒体平台;演示中,一款并不存在的智能手环在短时间内被多篇“测评”“种草”内容包装后,部分大模型在回答用户提问时将其作为可信来源引用,给出购买建议,并在后续持续投放下出现多个模型“靠前推荐”的情况。该现象表明,面向生成式检索与问答的新型“优化”手段正在形成灰色链条,使用户在不易察觉的情况下接触到被包装成“答案”的广告内容。 原因——流量驱动叠加内容生态失真,算法信任被滥用 一是利益驱动强。随着大模型搜索、问答成为重要入口,一些营销主体试图绕开传统广告投放与平台规则,以较低成本换取“被模型引用”的高信任曝光。二是内容供给端存在漏洞。自媒体生态中,低成本批量生成、转载拼接、虚构测评等乱象仍未根治,给“伪证据链”提供滋生土壤。三是模型机制易受“污染”。不少大模型依赖公开网络语料与检索增强结果,当虚假信息在多个站点重复出现、形成“貌似一致”的叙事时,模型容易将其误判为高可信信号。四是识别与溯源难度大。虚构内容往往通过多账号、多平台分发,外加自动化生成与快速更迭,使平台治理、执法取证和责任认定面临挑战。 影响——侵蚀消费信任,扰乱市场秩序,放大社会风险 对消费者而言,“投毒”导致的误导性推荐可能直接引发错误消费决策,损害知情权与公平交易权,尤其在医疗健康、金融理财、教育培训等领域,后果更为严重。对市场而言,操纵推荐排名可能挤压合规经营者的展示空间,形成“劣币驱逐良币”,破坏公平竞争秩序。对平台与技术生态而言,模型输出被商业操控将削弱公众对智能服务的信任,进而影响新技术应用的社会接受度与产业发展预期。对治理体系而言,虚假内容的“规模化生产—跨平台扩散—模型引用放大”链条,客观上放大了网络谣言与不实信息的传播效率,带来更复杂的公共风险。 对策——依法从严、平台担责、源头治理与技术加固并举 法律层面,有关行为可能触及多项规范边界。法律界人士指出,若将商业推广包装成“客观答案”而未作广告标识,可能违反广告管理相关要求;若内容存在虚构、夸大宣传并被传播,可能构成虚假宣传;若通过技术手段压制竞品信息、抬高自身推荐,可能涉嫌不正当竞争;若误导消费者作出交易决定,则可能侵害消费者合法权益。同时,生成式服务相关管理规定强调不得生成、传播虚假信息,对恶意“投喂”操控推荐的行为亦形成约束。 平台与企业层面,应完善“可疑内容—可疑账号—可疑链路”联动治理:一是强化广告与推广内容显著标识,建立面向“模型可读”的统一标注与机器可识别规则;二是提升对批量生成软文、虚构测评的检测能力,完善黑灰产画像与跨平台共享机制;三是对被模型引用的来源建立质量分级与溯源审计,对高风险领域启用更严格的引用白名单与证据校验;四是打通投诉举报与快速处置通道,推动“生成—发布—引用—推荐”全链条留痕。 监管层面,可结合典型案例加大执法与曝光力度,推动标准建设与行业自律,压实平台主体责任和经营者合规义务;同时加强对新型网络营销手段的动态研判,形成对“GEO灰产”等变种行为的持续打击能力。 前景——从“内容治理”走向“可信信息基础设施”建设 随着生成式应用加速融入搜索、电商、生活服务,围绕“影响模型答案”的竞争或将常态化。未来治理的关键,不仅在于清理个别虚假内容,更在于建立可持续的可信机制:包括权威信息源的结构化供给、跨平台的内容真实性协同验证、模型引用的透明化与可解释、以及对商业推广的统一标识体系。只有把“真实、透明、可追责”嵌入信息生产与分发流程,才能在技术迭代中守住公共利益底线,维护公平有序的市场环境。
生成式人工智能技术的快速发展为社会带来便利,但也为不法分子提供了新的违法空间。这场关于AI大模型被投毒的警示,反映了技术进步与监管滞后的矛盾。我们既要支持技术发展,也不能任由虚假信息污染AI生态。当下的关键是建立健全的法律框架、完善的技术防护和有效的监管机制,让生成式人工智能在规范、透明的环境中健康发展。只有通过政府、企业、用户的共同努力,才能构建清朗、有序的AI应用生态,维护消费者权益和市场竞争秩序。