当前,人工智能正以更广的应用范围和更深的渗透程度,重塑生产方式、生活模式与治理方式。从医疗诊断的辅助决策到智能制造的效率提升,从智慧城市的运行优化到民生服务的体验升级,从自动驾驶的场景落地到金融监管的风险识别,人工智能应用已成为推动经济社会发展的重要动力。此外,技术快速演进也带来新的风险与挑战:生成式人工智能的内容伪造问题更加突出,脑机接口可能引发隐私与数据安全风险,算法偏见带来伦理争议。这些问题正影响人工智能的健康发展。如何发展负责任的人工智能,已成为各国共同面对的重要议题。我国对此重视,并在国家层面作出系统部署。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,首次提出人工智能发展需要“共担责任”原则,明确研发者、使用者和受用者等各方的责任分工。2021年9月,该委员会深入发布《新一代人工智能伦理规范》,提出增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本伦理要求。对应的文件的发布,反映了我国人工智能治理框架的持续完善。 负责任的人工智能治理,意味着责任理念与治理方式的调整。首先是责任主体范围的扩展。传统责任通常围绕人与人、人与社会之间的责任分配展开,责任主体以人类为核心。但人工智能具备一定的推理与决策能力,在特定情境下可能形成“类主体”特征,责任讨论也随之从“人对工具”延展为“人—机协同”框架。当自动驾驶汽车发生事故、且关键决策由系统自主作出时,简单的“工具论”难以清晰界定责任归属。这就需要完善归责规则:既关注研发与运维人员的职业伦理与职业责任,也关注系统在设计、部署与运行中的可追溯责任。在研发阶段,可通过“道德物化”等方式将基本价值要求嵌入系统设计与训练,使其行为更好符合人类价值与社会规范;并通过人类“自律”、技术“物律”和制度“他律”的结合,将外部监督与内部约束协同起来。 其次是从后果性责任向前瞻性责任的转变。传统责任伦理强调行动者对行为后果负责,更多是事后追溯。但鉴于人工智能的影响范围和潜在外溢风险,仅依赖事后追责往往不足。前瞻性责任强调在技术发展和应用初期,通过法律、伦理与技术手段提前识别、评估并约束风险,确保技术发展方向与公共利益一致,是一种主动预防、提前介入的责任模式。国务院《新一代人工智能发展规划》提出“加强前瞻预防与约束引导”,正体现了此思路。 构建负责任的人工智能治理体系,既符合全球科技治理的发展趋势,也关系到我国人工智能实现高质量发展、支撑科技强国建设的现实需要。这要求在人工智能全生命周期各环节强化自省与自律,健全问责与纠偏机制。坚持人类作为最终责任主体,进一步细化利益相关方的责任边界,提升全社会的风险意识与责任意识。同时,加强国际合作与对话,推动治理规则的沟通衔接,促进形成更广泛的伦理共识。
技术进步从来不是单线推进。越是能力强、影响广的技术,越需要明确的价值坐标和可靠的治理框架。推动负责任的人工智能,不是给创新“踩刹车”,而是为创新“装方向盘”“设护栏”。只有制度、技术与社会共识形成合力,让可信成为竞争力、让安全成为生产力,才能把技术红利更稳定、更持续地转化为高质量发展的现实成果。