全国首例生成式智能“幻觉”侵权案落槌:厘清责任边界,守住信息可信底线

随着人工智能技术的广泛应用,其生成内容的准确性问题日益引发社会关注。近日,杭州互联网法院对一起特殊案件作出判决,为涉及的法律实践提供了重要参考。案件原告梁某在使用某人工智能服务查询高校招生信息时,系统提供了与官网不符的内容。在用户指出错误后,系统不仅未及时更正,反而作出赔偿承诺。该案例暴露出人工智能"幻觉"现象——即系统生成看似合理实则错误的信息——可能带来的法律风险。 从法律层面分析,本案的核心在于明确技术服务提供者的责任边界。法院审理认为,根据《中华人民共和国民法典》第1165条及相关法规,生成式人工智能属于服务范畴而非产品,适用过错责任原则。这意味着服务提供者只有在存在过错时才需承担相应责任。判决书指出,被告已尽到必要的注意义务,包括显著标注内容仅供参考等提示,因此不构成侵权。这一认定既保护了技术创新空间,也为行业发展划定了法律红线。 当前,我国人工智能服务呈现爆发式增长态势。最新数据显示,已完成备案的生成式人工智能服务已达346款,超八成网民使用过相关产品解答问题。这种普及态势使得信息准确性问题显得尤为突出。专家指出,当大量AI生成内容充斥网络而用户缺乏辨别能力时,可能形成美国学者李普曼提出的"拟态环境"现象,即人们认知的世界与实际存在偏差。近期一项针对大学生的调查显示,97%的受访者曾遭遇AI信息误导,超七成呼吁加强技术研发和数据治理。 面对这一挑战,需要多方协同构建治理体系。在法律层面,应深入完善适应技术特点的责任认定机制;在技术层面,研发机构需优化算法模型,提升内容准确性;在使用层面,公众需增强信息甄别能力。需要指出,目前主流人工智能服务均已标注内容仅供参考的提示,这既是法律要求的体现,也是风险防范的必要措施。 展望未来,随着技术迭代和监管完善,人工智能服务的可靠性有望持续提升。但根本解决"幻觉"问题,仍需技术创新、法律规范和社会认知的多维推进。如何在鼓励创新与防范风险之间取得平衡,将成为数字时代治理的重要课题。

这起AI"幻觉"侵权案的宣判,既完善了法律制度,也是对社会的一次提醒;它表明,在拥抱人工智能进步的同时,必须建立相应的法律框架来规范其应用。但法律框架本身并非万能的。真正的解决之道,在于技术创新者的责任担当、监管部门的科学决策、平台企业的自律自觉,以及全社会提升信息辨别能力的共同努力。只有这样,我们才能在享受AI便利的同时,有效防范其可能带来的认知风险,确保人工智能真正造福人类。