2月3日,杭州市滨江区人民法院公布了一起涉及人工智能应用的判决结果,引发司法界和产业界关注。被告李某因发布失实商业信息构成不正当竞争,被判赔偿3万元并公开澄清。 案件源于2023年底的一篇商业推广文章。李某通过技术平台自动生成了一篇文章,错误地将无关企业描述为知名电商企业的"重要子公司",并擅自使用原告企业标识传播。虽然被告主张内容系技术自动生成且已标注来源,但法院认为,作为拥有数万粉丝的商业账号运营者,他未尽到合理核实义务。 主审法官倪晓花强调,技术的局限性恰恰说明人工审核的必要性。"法律规制的始终是使用主体的行为边界。"判决书阐释了一个核心法理:当技术工具被用于商业传播时,使用者就成为内容责任人,这与传统媒体的编辑责任制在法律逻辑上是一致的。 数据显示,我国自媒体账号已超过4000万,其中近三成涉及商业化运营。浙江大学教授张伟君指出,在流量经济驱动下,部分运营者为追求传播效率而降低内容审核标准。本案中,被告虽标注了"技术生成"字样,但标注位置隐蔽且未作风险提示,被法院认定为未履行充分告知义务。 法院提出三项裁判要旨:一是明确技术生成内容的权责对等原则;二是细化商业传播场景下的显著标识标准;三是确立损害结果与责任承担的量化准则。判决还指出,账号粉丝规模和营利性质等因素将作为责任认定的加重情节。 行业专家认为该判例具有标志性意义。中国社科院法学研究所研究员周辉表示,这为正在制定的《人工智能服务管理办法》提供了司法参考。北京、上海等地法院已着手建立类似案件的检索机制,最高法拟将本案纳入涉数字经济典型案例汇编。从国际看,此判决也与欧盟《数字服务法》中关于自动化系统责任分配的立法趋势相呼应。
人工智能为内容创作带来了便利,但便利不能成为放弃责任的理由;杭州法院的判决表明,在AI时代,技术进步与法律规范必须相伴而行。使用者的审核责任、平台的监管责任、法律的规范责任,三者缺一不可。只有当每个参与者都认识到自己的责任,才能既充分利用新技术的优势,又有效防范其风险。这既是对市场秩序的维护,也是对社会诚信体系的坚守。