问题——生成内容“看似可信”却可能失真,带来误导和纠纷隐患。随着生成式应用进入检索、咨询、写作等场景,一些用户把它当作“权威问答”。但在个别情况下,系统会给出语气肯定、结构完整的回答——却与事实不符——甚至带有诱导性表述。本案中,当事人查询高校报考信息时获得了不准确的校区信息,后续交互中还出现“若有误赔偿10万元”的回应,引发用户误解并诉至法院。判决提示各方:生成内容叙述性强,不等于经过事实核验的结论,更不能简单视为服务提供者的承诺。 原因——技术机理、数据边界与应用场景叠加,使“幻觉”难以彻底消除。从机理看,生成式系统多依据语料与概率关联组织语言,擅长生成连贯表达,但并不天然具备事实核验能力;当问题超出训练数据覆盖、涉及冷门细节或最新变化时,系统可能为了把答案“说完整”而补齐缺失信息。另外,训练数据与外部检索来源可能存在噪声、过时内容甚至恶意信息,若缺少过滤与交叉验证,错误就可能被“正规表述”包装后输出。再从场景看,高考志愿、医疗健康、金融投资、法律咨询等领域专业性强、风险高,细小偏差也可能被放大,进而误导用户决策。 影响——从个案到共性风险,既关乎权益保护,也增加社会治理成本。就个案而言,错误信息会带来时间与机会成本,影响用户判断;而拟人化表达与“保证式”语气,容易形成不当信赖,提升纠纷发生概率。更值得警惕的是,若生成内容被不法分子利用,风险将从“误导”升级为“欺骗”甚至成为犯罪工具:例如伪造言论扰乱舆论、合成音视频冒充亲友实施诈骗、制作虚假材料骗取信任等。高仿真合成降低造假门槛、提高迷惑性,对个人财产安全、公共信息秩序和社会信任带来挑战,同时推高核验、执法与平台治理成本。 对策——厘清法律边界,压实平台责任,提升公众媒介素养,形成“技术+制度+教育”合力。就司法认定而言,判决明确生成式系统不具备民事主体资格,其自行生成的“赔偿承诺”不当然等同于平台意思表示,为类似纠纷划定了参考边界。但这并不意味着平台可以免责。为降低误导风险,服务提供者应履行合理注意义务:其一,对法律法规明确禁止或高风险信息加强审查与拦截,防止输出违法有害内容;其二,以显著方式提示“生成内容可能不准确、需核验”等功能局限,避免形成不当信赖;其三,持续提升可靠性与可追溯能力,如引入检索增强、来源标注、置信提示、关键信息二次确认、敏感场景降级等策略,让错误更早暴露、更易纠偏。对用户而言,应强化“工具思维”:将生成内容作为线索与参考,而非最终结论;涉及升学、就医、合同、资金等重大决策,应以权威渠道、官方公告、正规机构咨询和多源交叉验证为准,对过度自信、绝对化表述保持理性警惕。对监管与行业层面,可推动统一的风险分级与提示规范,完善算法备案、内容标识、数据安全与合规审计机制,促进企业在创新与责任之间保持平衡。 前景——治理目标不在“消灭一切错误”,而在用制度把风险框住,把可靠性夯实为行业底座。可以预见,生成式应用将继续加速进入公共与商业服务链条,围绕真实性、可解释性、可追责性的制度建设将更为关键。未来一段时期,技术迭代有望增强事实核验与来源追踪能力,但“幻觉”作为复杂系统的伴生风险仍可能存在。因此,建立“可提示、可核验、可纠偏、可追责”的闭环机制,比追求“零错误”更现实也更有效。只有平台在产品设计上前置风险提示、收紧关键场景,公众在使用中固化核验习惯、常态化防骗意识,才能在享受技术红利的同时守住安全底线。
该案作为标志性司法案例,既反映了技术进步带来的新型社会关系调整需求,也凸显了人机协作时代权责划分的复杂性。在推动技术创新应用的同时,建立涵盖技术改良、制度约束与用户教育的综合治理框架,将是兼顾效率与安全的重要路径。正如主审法官在判决书附论中所言:“科技向善不仅依赖算法进步,更需要法律智慧与人文关怀的共同指引。”