最近啊,我看了一个挺有意思的新闻,就是关于AI出错该不该负责的问题。这个话题挺让人关心的。十四届全国人大四次会议在北京人民大会堂开了第二次全体会议,最高人民法院的工作报告就提到要给科技创新容错空间。IT之家消息显示,这就是围绕着一次AI犯错引发的案件展开讨论。 你听说过“幻觉”吗?对,就是指AI产生错误的信息。这次呢,有个例子特别典型。杭州互联网法院就审理了这个全国首例AI幻觉侵权纠纷案。这次梁某在杭州互联网法院起诉某科技公司网络侵权责任纠纷,这事儿得从2025年6月29日说起。当时梁某在生成式人工智能应用里输入提示词询问某高校报考信息,结果生成式人工智能把主校区的信息搞错了。梁某发现了之后,他就纠正并指责这个人工智能,可没想到它居然坚持说自己是对的,还主动说如果内容有误赔偿10万元。 最后梁某把那个高校的招生信息给这个人工智能看,人工智能才承认自己错了。梁某觉得自己受到了误导,并且认为这个人工智能承诺赔偿他的损失,所以就把这家科技公司告上了法庭。但结果呢?杭州互联网法院驳回了梁某的索赔诉求。这是为什么呢?因为这个AI模型不是我国法律规定的民事主体,没有民事行为能力,不能独立作出有法律意义的承诺,所以也不能承担民事责任。 那么这个平台就没有责任了吗?当然不是,平台有没有责任关键看它有没有过错。在这个案子里,平台已经在界面提醒“AI生成内容仅供参考”,并且采取了措施提高内容准确性,已经尽到了合理义务。再加上没有给原告造成实际损失,所以法院就判决运营商不承担责任。 对这次案件最高人民法院办公厅主任林文学也有解释:在这个案件中,AI出现幻觉生成错误内容并不是纵容它出错,而是要厘清法律责任边界。“要想明白是谁的错”,林文学给出了答案:作为AI模型运营商的关键还是要看有没有过错。这次判决明确了平台的责任边界。所以说呢,我们在使用AI技术的时候还需要多留个心眼儿哦!