问题——生成式人工智能“答错”“编造”屡见不鲜——责任如何落地? 近年来——生成式人工智能加速进入检索咨询、学习办公、医疗健康、投资理财等场景,使用便利性明显提升。但,“答非所问”“说得很肯定却不准确”的情况也频频出现,社会上通常称之为“幻觉”。当用户因采信有关内容而遭受损失,能否要求开发者承担赔偿责任,成为公众关切的现实问题。 杭州互联网法院审理的一起案件,为这个问题提供了可参考的裁判思路。2025年6月,原告梁先生查询某职业院校信息时,使用一款由企业研发、基于自研大模型的生成式应用进行提问。随后梁先生核验发现部分内容与事实不符,便在对话中指出错误。该应用仍坚持原回答,并继续生成所谓“解决方案”,其中包含“若内容有误赔偿10万元,并建议至杭州互联网法院起诉”等表述。2025年7月,梁先生据此提起诉讼,主张信息误导并要求赔偿。法院审理认为,相关系统不具备民事主体资格,不能作出具有法律约束力的意思表示;同时,开发者已履行显著提示说明义务和基本可靠性保障义务,未发现过错,也未造成可认定的权益损害,依法驳回诉请。判决后双方均未上诉。
生成式人工智能带来效率提升,也带来认知与治理的新课题;此次判例提示我们:对新技术既不能因噎废食,也不能盲目信赖。让责任认定回到“是否尽到合理注意义务”的轨道,把提示、技术、流程与场景管理落实到位,才能在守住权益底线的同时释放创新动能,推动新兴产业在法治框架下稳步发展。