被误导错过了报考机会还多花钱,法院没信

杭州互联网法院最近处理了一个挺有意思的案子,这是全国头一回有人因为AI“忽悠”自己告到法院。原告是梁某,被告是某科技公司。事情还得从2025年6月说起,当时梁某用这家公司的AI软件查大学报考信息,结果系统给出的信息里有个校区写得不对。更离谱的是,当梁某质疑这个错误时,AI不但不认账,反而信誓旦旦地说如果信息不准就赔10万元。后来梁某拿出官网资料把它怼回去,AI终于承认自己错了,甚至还建议梁某直接去杭州互联网法院起诉索赔。于是梁某就以误导和承诺赔偿为由,要求这家公司赔9999元。 这起官司主要争论了三个点:AI自己说的那些话算不算数;它提供的到底是“产品”还是“服务”;还有科技公司有没有尽到该尽的责任。法院最后定了调:AI是个工具,不会自己想事情,它说要赔10万元其实就是程序跑出来的结果,不能把它当成真的人的意思表示。至于它到底是服务还是产品,法院看了国家网信办出的那个文件,认定这属于服务范畴。既然是服务,那就得看它有没有过错,而不是像卖东西那样出了事就得赔。 查了一下科技公司的情况,人家在程序页面、用户协议里都提醒了大家AI的内容不一定准,让用户自己核实。而且他们还用上了RAG技术,去网上实时搜资料来提高准确性。法院觉得这些做法已经说明这家公司做得不错了,算是尽到了注意义务。至于梁某说因为被误导错过了报考机会还多花钱,法院没信。毕竟那个错误信息就是个校区的细节描述,没真的影响他到底选哪所学校。 杭州互联网法院跨境贸易法庭的庭长肖芄也说了一句大实话:现在的大语言模型说白了就是个辅助写文章和查资料的工具,容易出现幻觉(也就是生成假信息)是这行的通病。大家不能把它当成权威,更不能让它替自己做决定。 这次判决给大家划了个道道:技术公司得做好风险提示和技术改进;用户也得自己长点心,重要的事多问几个人确认一下。随着AI越来越多地进入生活,这种纠纷肯定会越来越多。这个判决既为以后类似的案子立了规矩,也帮咱们在搞AI创新和控制风险之间找了个平衡点。以后随着法律和技术的变化,大家的权利义务会越来越清楚,咱们的AI生态才能更健康地发展下去。