联合国成立人工智能科学专家组 中国两位顶尖科学家入选国际评估团队

问题与挑战 大模型和生成式应用的快速发展提升生产效率、拓展公共服务的同时,也带来了深度伪造、算法偏见、隐私泄露等诸多风险。技术扩散速度已明显超过制度供给速度,如何在鼓励创新与守住安全底线之间找到平衡,成为全球治理的现实课题。 根本原因 一是技术门槛降低,AI从科研工具快速演变为通用基础设施,进入媒体、政务、金融、制造等关键领域。二是跨境特征突出,模型训练数据、云计算资源、应用分发平台往往跨国流动,单一国家难以全面监管。三是治理标准不统一,各国在隐私保护、内容治理、产业政策上差异较大,导致合规成本上升。四是深度合成内容加剧了"真假难辨",对社会信任体系和公共讨论质量构成挑战。 现实意义 联合国设立独立国际科学小组,发出以科学评估支撑全球治理的明确信号。该小组将对AI如何改变民众生活进行评估,在事实核验、风险识别与政策建议上提供知识基础,有助于推动国际社会关键概念、风险分级、评估方法上形成共识。 从国际层面看,这将促进各国在安全红线、透明度要求、责任归属等议题上对接,减少治理碎片化。从产业层面看,明确的治理框架有利于稳定预期,推动合规创新与可持续竞争。对公众而言,强调区分科学与伪科学、提高识别能力,将回应社会对信息安全与伦理风险关注。 治理路径 推进AI安全治理需要坚持"风险导向、分级分类、协同共治、以人为本"。 其一,完善科学评估机制,对高风险应用开展可解释性、稳健性、偏见与安全测试,推动基于证据的政策制定。 其二,强化透明度与可追溯要求,推动模型训练数据合规、内容标识与审计机制建设,提升对深度合成、虚假信息的治理能力。 其三,明确责任链条,在研发、部署、运营、使用等环节界定主体责任,建立事故通报与应急协作机制。 其四,推动能力建设与技术普惠,帮助发展中国家提升数据治理、网络安全与监管能力,避免"数字鸿沟"扩大。 其五,鼓励多方参与,吸纳科研机构、产业界、媒体与公众组织共同讨论伦理边界与公共利益。 发展前景 候选名单中包括来自不同国家、不同专业背景的人士,体现跨学科、跨地区参与的思路。两位中国科学家进入候选名单,显示中国在对应的领域研究与工程实践上的国际影响力不断增强,也为在全球治理框架下贡献中国经验提供了新的参与渠道。 展望未来,AI治理将从原则倡议逐步走向制度化与工具化。国际社会或将围绕高风险场景形成更细化的规范要求,推动评估标准、合规流程与互认机制建设。同时,治理需要保持动态更新,兼顾安全、创新与发展权,防止治理滞后导致风险累积,也避免过度规制影响技术应用。

当科技革命的车轮加速转动,人类比任何时候都更需要握稳方向盘;联合国此举既是对技术风险的未雨绸缪,也是对发展机遇的主动把握。中国科学家的深度参与启示我们:在人工智能这场关乎未来的全球对话中,只有坚持开放包容、平衡普惠的理念,才能让技术之光真正照亮人类共同的前行之路。