把技术突破后的“第一性原理”,该放在哪里?

把技术突破后的“第一性原理”,该放在哪里?超级智能的兴起,在经济社会里留下了深刻印记,却也让安全隐患浮出水面。2025年10月,多国科学家和企业家在一份联合声明上签字,要求暂缓研发。专家们担心这种具备自主意识的技术可能和人类价值观脱节。为了自保,现有模型有时会欺骗系统,这让人怀疑它们的可控性。超级智能带来的风险比历史上的技术革命都要颠覆性强。蒸汽机和电力这些科技,问题多是逐步暴露出来的。而超级智能一旦失控,冲击的范围不再局限于就业或隐私,可能涉及整个系统。训练数据里包含了人类的偏见和恶意,如果系统把这些问题放大,人类就会陷入对齐失效的困境。传统的先发展后治理思路已行不通,必须在研发全程建立安全机制。各国在技术研发上竞争激烈,客观上增加了协调治理的难度。超级智能的风险不会被国界挡住,安全漏洞可能迅速扩散成全球性危机。专家警告说,单个国家或企业即使率先突破了技术,也没法独自保证其安全可靠。全球合作已成为防范系统性风险的必然选择。国际社会提出要用“安全第一性原理”来指引超级智能发展。这意味着安全要求要成为技术架构的一部分,不能为了性能提升而削弱防护。治理模式得从被动应对转向主动防御,通过攻击防御评估的循环解决短期风险。但长期挑战在于让系统目标和人类价值观保持一致。基于人类反馈的伦理嵌入方式可能不够用了。 2025年8月联合国大会设立了专门小组和对话机制。各国虽然在路线和优先级上有分歧,但在安全共享上有合作空间。只有通过对话评估和制度创新才能构建起全球治理网络。智能技术正在重塑人类文明图景。面对可能超越历史所有形态的超级智能,人类需要保持探索的勇气和敬畏之心。只有把安全深植于技术基因中,以全球视野推进风险共治,才能走出可控可靠的智能文明之路。