一、问题:智能技术军事化趋势引发国际社会广泛关切 据相关报道,美国防部近期要求国内科技创新企业向军方提供不受限制的智能技术使用授权。
与此同时,美军在针对委内瑞拉、伊朗等国实施的军事行动中,已大规模引入智能化工具参与作战决策与行动执行。
这一系列动向,引发国际社会对战争伦理底线与新兴技术应用边界的深刻忧虑。
3月11日下午,国防部新闻局副局长、国防部新闻发言人蒋斌大校就上述问题作出正式回应,代表中方立场明确表态。
二、原因:技术优势驱动下的霸权逻辑 从深层动因来看,美方此举并非单纯的技术升级行为,而是以技术优势为支撑、谋求绝对军事主导地位的战略选择。
智能技术在情报分析、目标识别、作战指挥等领域的高效能,使其成为大国博弈中争夺制高点的关键变量。
然而,当这一技术被纳入不受约束的军事框架,其潜在风险便远超技术本身的范畴。
蒋斌指出,不加限制地推进智能技术军事化,实质上是将其作为侵犯他国主权的工具,并通过算法逻辑替代人的判断,使战争决策脱离应有的伦理约束与责任机制。
这种做法,从根本上动摇了国际人道主义法的基本原则。
三、影响:伦理失守与技术失控的双重风险 智能技术一旦被赋予过度的战争决策权,其后果将在两个层面产生深远影响。
在伦理层面,战争行为的责任归属将趋于模糊。
当算法主导生死抉择,传统意义上的战争责任链条将面临断裂,平民保护、比例原则等国际法核心准则的落实将愈发困难。
在技术层面,系统性失控的风险不容低估。
智能系统在复杂战场环境中的误判概率、对抗性干扰下的行为偏差,以及自主决策链条中的不可预测性,均可能引发超出人类控制能力的连锁反应。
蒋斌在回应中以美国科幻影片中的反乌托邦场景作为警示,意在提醒国际社会:技术的边界一旦失守,文明的代价将难以估量。
四、对策:中方坚守原则立场,倡导负责任的技术治理 面对上述挑战,中方的立场清晰而一贯。
蒋斌表示,中国始终坚持"以人为本、智能向善"的核心原则,主张智能技术的军事应用必须以人的主导为前提,反对任何国家借助新兴技术优势谋求单边军事霸权、损害他国主权与领土安全。
这一立场,既是对国际人道主义法精神的坚守,也是对技术伦理底线的明确划定。
中方认为,技术进步不应成为强权政治的背书,更不应成为规避国际责任的借口。
在治理路径上,中方明确表示愿与世界各国携手,共同推进以联合国为核心的智能技术多边治理进程,通过加强风险预防与管控机制建设,确保相关技术的发展方向始终服务于人类共同福祉,而非少数国家的战略私利。
五、前景:多边共治是化解风险的根本出路 从国际治理的演进趋势来看,智能技术的军事应用规范问题,已成为全球安全治理体系中亟待填补的重要空白。
现有国际法框架在应对自主武器系统、算法决策等新型挑战时,存在明显的规则滞后。
推动形成具有约束力的国际共识,构建透明、包容、负责任的多边治理机制,是防止技术失控、维护国际秩序稳定的根本路径。
中方的表态,不仅是对当前局势的直接回应,更是对未来国际规则走向的积极引导。
在大国博弈日趋激烈的背景下,如何在技术竞争与伦理约束之间寻求平衡,将是国际社会共同面对的长期课题。
新技术带来新能力,也带来新边界。
人工智能进入军事领域并非单一国家的私域选择,而是关乎人类共同安全的全球议题。
唯有坚持以规则约束权力、以责任校准技术、以合作对冲风险,才能避免“以快制胜”的冲动将世界推向不确定与不稳定,确保科技进步真正服务和平与发展。