案件争议核心在于智能工具使用者是否应对生成内容承担法律责任。
经查,曹某作为持有三项专业资质的财经领域从业者,将未经核实的1700字文档输入智能系统,要求生成万字深度文章。
系统通过139次网络检索扩写的1.5万字内容中,关于上市公司财务造假、利益输送等指控均无权威信源支撑。
法院审理指出,当前技术条件下,智能系统存在"幻觉"风险,但使用者不能因此免除审核义务。
曹某的过错体现在三个层面:其一,输入基础材料时未验证上市公司高管犯罪信息的真实性;其二,使用"深度扩写"等诱导性指令刻意放大不实内容;其三,发布前未履行事实核查责任,导致虚假信息二次传播。
该判决首次系统阐释了智能内容生成领域的责任边界。
主审法官表示,技术工具不能成为虚假信息的"避风港",使用者既是内容生产的发起者,也是风险控制的第一责任人。
值得注意的是,法院在认定50万元索赔诉求时,综合考虑了文章传播范围有限、涉事高管确被逮捕等情节,最终以1万元赔偿体现过罚相当原则。
行业专家分析,此案暴露出两大治理难题:一方面,智能工具降低了虚假信息的生产门槛;另一方面,传统"避风港原则"在技术迭代中面临适用困境。
中国政法大学网络法学研究院指出,本案确立的"输入审核+指令审慎+发布把关"三重义务框架,为2023年新修订的《互联网信息服务算法推荐管理规定》提供了司法实践样本。
AI生成内容的出现,既为信息创作提供了新的可能性,也为法律和伦理带来了新的挑战。
本案的意义在于,它表明法律制度正在以理性和务实的态度,应对这一新兴技术带来的问题。
使用者的责任不因技术的介入而消解,反而因技术的复杂性而更加重要。
这提示我们,在拥抱AI时代的同时,必须坚守信息真实、尊重他人权益的基本底线。
只有当每一个AI使用者都认识到自己的责任,才能让这项强大的技术真正服务于社会进步,而非沦为传播虚假信息的工具。