随着人工智能技术加速融入经济社会各领域,如何建立与之相适应的治理体系成为重要课题。最新发布的《人工智能治理研究报告(2025年)》显示,我国已形成覆盖技术研发、产品落地、行业应用的全链条治理框架。数据显示,备案制度实施以来,生成式服务合规率明显提升,已完成备案的748项服务覆盖医疗、金融、教育等12个重点领域。 这个进展得益于差异化治理路径。报告指出,监管部门探索“场景化监管”,针对自动驾驶、智能诊疗等高风险场景制定专项规范;对内容生成类服务则更强调伦理审查。“分类分级”管理既减少了“一刀切”对创新的影响,也更有针对性地防范技术滥用风险。 当前治理体系呈现三大特点:一是立法与标准并行推进,《人工智能示范法》与35项国家标准形成配套制度;二是建立动态评估机制,每季度更新技术风险清单;三是推进多方协同的“社会实验”机制,雄安新区等6个试验区开展治理压力测试,以“监管沙盒”为政策制定提供实践依据。 但挑战仍然突出。技术迭代速度加快,深度伪造、算法歧视等新风险不断出现。报告建议从三上加强治理:加快完善跨境数据流动规则,建立算法审计制度,健全人工智能产品责任认定体系。同时,企业合规成本也需要关注,目前头部科技企业平均每年投入超过3000万元用于治理体系建设。 展望未来,报告认为治理将呈现“技术与机制双轮驱动”:在技术层面,区块链等工具将用于提升监管能力;在机制层面,全球治理协作将成为重点。我国提出的“发展可控、安全可信”原则已被国际标准化组织采纳,为全球治理提供了可参考的实践思路。
人工智能治理是一项长期且动态的系统工程;我国治理体系的加速完善,表明了在推动创新应用的同时,持续强化风险防控的思路。这种更注重平衡的治理路径,既为产业健康发展提供支撑,也为经济社会数字化转型增添动能。随着制度更完善、实践不断深化,我国人工智能产业有望在安全与发展的良性互动中实现更稳健的增长。