全国首例生成式人工智能“幻觉”侵权案有了结果,这把国家网信办、杭州互联网法院还有梁某这几方的事儿都给说清楚了。这事儿说到底就是技术发展太快了,好是好,可有时候生成的内容不真确,这带来的法律风险可不小。这次杭州互联网法院就直接下了判决,解决了一大堆法律上的大问题,也是咱们国家在这方面法治化的重要一步。 原告梁某用某家公司的软件查学校信息时,程序给了个错误的说法。后来他拿官方数据纠正后,软件不仅不改,还说如果错了赔10万,还劝他打官司。梁某就觉得自己被误导了,还有核实和维权的钱也花了不少,就起诉了这家公司。第一个争议点是那个人工智能自动生成的赔偿承诺算不算数。法院说得很清楚,机器本身不是人,没有民事权利能力。这个承诺是算法自己生成的,没证据表明公司真有那个意思去赔。而且大家平时也不会随便信这种话。所以那个承诺不能算是公司的真实意思表示,公司也就没义务真赔。 还有个更关键的问题就是服务提供者到底要负什么样的责任。被告公司说自己没犯错也没让人吃亏。法院认为根据国家网信办发的那个办法,这东西是服务不是产品。既然是服务,法律上的责任认定就不一样了。判决书里说了四条理由:第一是信息输出太多样没法完全预见;第二是不像危险品那么危险;第三是没法对每条信息都实时控制;第四是怕管得太严打击创新。所以最后法院决定按《民法典》里的一般过错责任原则来判,得证明公司有过错才行。 接着法院就看被告有没有过错了。梁某主要是说自己信了错误的信息导致决策有偏差还有查证和打官司的钱花了不少。在这种过错责任原则下,光看有没有损失还不行,还得看行为违不违法。法院就查了这家公司是不是履行了数据质量控制、内容过滤和标明可能不准这些规定的义务。最后看下来,梁某说公司有过错构成侵权的证据不够硬气。 杭州互联网法院这次判决不仅仅是处理了一个案子,更是给人工智能时代的法律关系做了个样板。它告诉咱们在这个法律框架下,服务提供者只要履行了法定义务和合理注意就行,不用对每一条内容都绝对准确负责。这个判决平衡了技术创新和用户权益保护之间的关系,让行业有了更稳定的预期。虽然这次判了原告输了官司,但为以后的立法和行业规范都提供了很好的参考方向。