当前,人工智能技术快速迭代发展,其安全性问题日益凸显。
在2026北京人工智能创新高地建设推进会上,北京前瞻人工智能安全与治理研究院发布的"前瞻人工智能安全评估体系与基座平台",代表了我国在AI安全治理领域的最新探索成果,为行业发展指明了新的方向。
从问题诊断看,当前人工智能安全评估存在明显短板。
传统的安全评估往往局限于单一维度,难以全面反映AI系统在复杂应用场景中的风险特征。
前瞻研究院通过深入测试发现,近年来大模型在安全性方面并未取得显著进展,部分新近发布的模型攻击成功率甚至有所上升,这表明仅依靠模型迭代升级难以根本解决安全问题。
这一发现揭示了当前AI安全治理的紧迫性和复杂性。
为应对这一挑战,前瞻研究院创新性地构建了多维度、全覆盖的安全评估框架。
该体系以基础安全为根基,向具身智能安全、科学智能安全、社会安全、环境安全、灾难性与生存性风险等五大维度纵深延伸,涵盖教育科研、医疗健康、金融经济、信息传媒、工业基建、政务民生等关键领域。
这种系统性设计确保了评估的全面性和针对性,避免了传统评估中的盲点和漏洞。
在具体评估重点上,该体系聚焦隐私与数据保护、滥用恶用、身心伤害、虚假信息防范、自主人工智能高阶风险等核心痛点,进行了深度的体系化设计。
这些痛点直接关系到AI应用的安全性和可信度,是当前行业面临的共同难题。
值得关注的是,前瞻研究院的研究验证了一个重要结论:人工智能模型的防御并不必然需要重新训练,通过在在线推理阶段部署安全护栏,就能显著提升模型安全水平。
这一发现具有重要的实践意义,为企业快速提升AI系统安全性提供了可行路径,降低了防御成本。
为将理论转化为实践工具,前瞻研究院打造了"前瞻·灵御"AI安全攻防平台和"前瞻·灵度"AI伦理评估平台。
其中,"灵御"平台为企业提供标准化评估流程和全面系统的安全分析,帮助准确识别模型安全水平,并提供针对性的防御方案与加固建议。
"灵度"平台则专注于AI伦理评估,能够对上百个大模型进行实时动态监控与并行测试,评估其在六大维度、90个细分类别的伦理合乎度。
"灵度"平台的创新之处在于其融合了中国价值观与国际规范。
平台集成了以中国价值观为核心的大规模中文价值语料库,覆盖3个层面、12个核心价值、50个衍生价值,累计25万余条规则;同时收录了全球200余项伦理原则与规范,以及40余项中英文法律法规与国际公约。
这种本土化与国际化相结合的设计,使平台能够为人工智能、数据安全、神经科学、脑机接口、医疗健康、生物安全等多个领域提供自动化伦理评估辅助,具有广泛的应用前景。
从战略层面看,前瞻研究院强调人工智能安全应成为"第一性原理",是不可删除、无法违背的底线要求。
这一理念反映了对AI发展规律的深刻认识。
安全治理能力基座的构建,不仅是技术问题,更是战略问题,直接关系到北京乃至全国人工智能产业的健康发展。
通过建立完善的安全评估体系和治理能力,可以为AI的广泛应用提供坚实保障,让人工智能技术更加安全地服务于现代化建设。
人工智能的价值在于赋能现代化建设,但其边界必须以安全为底线、以治理为保障。
把安全当作“第一性要求”,以评估体系与平台能力夯实治理基座,既是对技术创新负责,也是对社会公共利益负责。
只有让安全能力与技术能力同步进化,才能在共享发展机遇的同时,把不确定性降到最低,让人工智能更可靠、更可控、更可持续地服务高质量发展。