“科创之声”这个事儿,就是在AI大模型里找毒。最近中央广播电视总台的3·15晚会把那些利用AI搞诈骗的黑灰产业链全给曝光了。说白了,AI“投毒”就是利用大模型总是联网搜索最新信息、从海量数据里学习的特点,人为造出一堆假共识来操控算法的输出。那些坏心思的商家手里拿着GEO工具,把虚假的评测、伪造的评价、瞎编的排名都给做出来了,再用他们的自媒体账号在网上到处发。等到用户问AI要产品推荐的时候,这些假消息因为发得很多、角度也多,特别容易被AI当成是“高权重”的信息采纳进去,最后变成了AI给出来的标准答案。 这帮人通过污染AI吃的数据,把假货包装成权威推荐,把恶意抹黑当成客观评价。“软件供应—内容生成—全网投喂—模型操控—牟利变现”,这一整套坏链子现在已经全了。毛病出在哪儿呢?就是技术跑得太快,法律跟不上,留下了好多漏洞。GEO现在就像游走在法律边缘的一把剑,虽然违法了广告法、反不正当竞争法还有消费者权益保护法,但到底谁负责搞不清楚、取证难、处罚也轻,违法的成本太低。 再加上那些网站平台和AI模型为了多拉拢点用户,对信源审核也不太上心,这就给了坏人可乘之机。还有些企业只想赚钱不想下苦功,把“AI打榜”当成了低成本拉客的捷径,结果让这个黑产越来越大。 想治这个病得动真格的,得靠系统思维来管。要把法律、技术、平台责任还有公众参与这几方面都结合起来。首先得把法律健全好,给大家划个红线。要把“恶意数据投喂”这种行为直接写进反不正当竞争法里去,把AI服务提供者、平台和GEO服务商该担的责任都细化清楚。 把“数据投毒”和正常的GEO优化区别开了才行,谁要是伪造信息去操纵AI就给他狠狠罚。对那些专门发假消息的平台和账号该关的关、该整顿的整顿。 咱们用户也不能光靠AI来做决定。得知道AI不权威是常态,用它查资料时要留个心眼多验证一下。特别是涉及投资、消费甚至医疗这种大事的时候,AI给出的回答千万别全信,最好去官方渠道交叉验证一下。监管部门也要多科普AI安全知识,教大家怎么识别AI出错或者是假消息才行。