问题——军事智能化加速演进,治理滞后风险凸显。
随着新一轮科技革命深入发展,人工智能在情报处理、指挥决策辅助、目标识别与后勤保障等领域的应用不断拓展,正推动军事形态与作战方式发生深刻变化。
与此同时,技术外溢、算法偏差、系统失效、误判误用等风险同步上升,一旦在高对抗环境下触发连锁反应,可能放大危机升级概率,影响地区稳定与国际安全。
如何确保相关技术始终服务于和平与安全,成为国际社会必须直面的共同课题。
原因——技术扩散与战略竞争叠加,规则供给不足。
当前军事领域对人工智能的需求增长快、投入力度大,导致技术迭代周期显著缩短,传统军控与风险管控工具面临适配挑战。
一方面,算法“黑箱”、训练数据偏差、复杂环境下鲁棒性不足,使系统可靠性与可解释性难以完全验证;另一方面,部分国家把技术优势与战略优势直接绑定,推动“先部署后治理”的做法,客观上加剧误判空间。
此外,现有国际机制在覆盖范围、约束力度与执行路径上仍存在空白,治理理念与标准不统一,难以形成有效合力。
影响——关乎战争门槛、危机管控与人道规则底线。
军事人工智能若缺乏规范约束,可能导致决策链条被过度自动化、责任边界被模糊化,增加冲突误触发和升级风险;若关键系统发生故障或遭受网络攻击,也可能引发不可预见后果。
在人道层面,任何削弱区分原则与比例原则的做法都将冲击国际人道法的基本要求。
更重要的是,若围绕相关技术形成新的军备竞赛,既会挤压各国发展资源,也会加重安全困境,损害全球战略稳定。
对策——坚持以人为本、智能向善,推动多边框架下的有效治理。
中方代表在峰会上强调,国际社会应秉持共商共建共享的全球治理观,践行共同、综合、合作、可持续的安全观,合力构建可操作、可落实的治理机制。
具体而言,一是坚守慎重负责底线,确保人工智能应用始终处于人的有效控制之下,关键环节可追溯、可审计、可问责;二是强调风险预防与安全治理并重,通过规范测试评估、红队验证、故障处置与应急预案等手段,降低系统性风险;三是倡导敏捷治理理念,推动规则与技术同步迭代,避免治理长期落后于应用扩散;四是坚持多边主义方向,在广泛参与基础上凝聚共识,减少阵营化、排他性安排对国际安全合作的侵蚀。
中方立场——反对军备竞赛,倡导透明与合作并行。
中方表示,作为重要的人工智能技术和应用国家,一贯高度重视军事应用领域的风险防范和安全治理,并坚持“以人为本的军事人工智能”理念。
中方已将“加强人工智能治理”纳入“十五五”规划建议,将依据世界军事变革趋势、国家安全客观需要和国防军队建设实际,稳步推进军事智能化发展,同时不与其他国家开展人工智能军备竞赛,做到政策透明。
中方还介绍,在维和、人道主义救援等任务中积极发挥相关技术优势,提升效率与安全性,取得良好效果。
前景——以规则塑造技术方向,关键在于形成最大公约数。
与会各方围绕如何利用军事人工智能增进国际和平与安全、如何避免不负责任使用带来的风险展开讨论,释放出加强治理协作的现实需求。
展望未来,治理议题将更强调可执行性与可验证性,围绕“人类控制”“责任归属”“安全测试”“出口与扩散管理”“危机沟通机制”等方面的制度供给有望加速推进。
能否在尊重各国合理安全关切的基础上,构建兼具包容性与约束力的国际安排,将直接影响军事智能化发展走向,也将检验全球安全治理能力。
当算法开始参与战争决策,人类正站在文明发展的十字路口。
中方倡导的共商共建共享理念,不仅是对技术理性的必要制衡,更是对和平价值的坚定守护。
历史表明,任何重大技术革命都需要与之匹配的全球治理智慧。
在军事智能化浪潮中,唯有超越狭隘利益藩篱,才能确保技术进步真正服务于人类福祉。