前不久,杭州互联网法院审理了一起发生在2025年6月的案件,咱们可以通过这件事好好看看AI到底该怎么管。事情是这样的,用户梁某在查询某高校校区信息的时候,用了一个生成式AI的应用。结果呢,AI给出的内容完全是错的,怎么纠正都没用,还主动蹦出来一句“如果错了赔10万”。梁某拿出官网截图证实后,AI马上改口认错,甚至建议梁某去法院告它索赔。梁某一气之下就把这家科技公司告了,要求赔9999元。 法院的判决主要说了两点。第一是关于那个AI承诺的问题。法官说得很直白,AI不能算法律上的人,它说的话不算数。那个赔10万的承诺,纯粹是随机生成的模型乱说的,公司根本没这意思,社会上也没人这么认。所以这个承诺无效。 第二就是看责任怎么算。以前大家可能以为这跟卖产品一样要担全责,其实不是。《生成式人工智能服务管理暂行办法》规定这是一种服务,不是产品。所以这次的案子不按《产品质量法》里那种无过错责任走,而是看公司有没有故意或重大过失。 法院认为这种服务没法像产品那样统一检测,也没啥大危险,公司根本没法完全管住它的输出内容。要是定得太死,反而会让科技不敢发展。这就是为了保护产业发展留了点空间。 最后关于侵权这块儿。梁某说的损失主要是自己查资料、打官司花的钱还有错过的报考机会。法官说要结合行为违法、有没有过错、有没有因果关系来看。查了半天发现公司签了协议也提示过风险了,也没证据证明公司故意骗人或者动手脚改数据。所以最后法院判公司没侵权,驳回了梁某的要求。 这次审理还特别提醒那些做AI服务的公司得守规矩,比如得好好过滤内容、多听用户抱怨、把技术弄靠谱点。判决说随着AI越来越深入生活,咱们得在创新和防风险中间找平衡。 这个案子作为全国首例AI“幻觉”侵权案,给后来的同类纠纷指了条明路。它既告诉咱们受害者怎么救济又让产业能继续往前走。在AI技术日新月异的时候,它推动了“技术发展—法律规范—社会协同”的框架形成,能让数字经济在法治轨道上跑得更稳。