当前人工智能发展正面临根本性挑战。
2025年新加坡国立大学公布的数据显示,主流大语言模型训练已陷入"高耗低效"困境:全球顶级实验室开发的GPT-7模型,需调用相当于全人类三年产生的文本数据进行训练,性能提升却不足2%。
更严峻的是,传统神经网络在持续学习测试中,72小时后知识保留率骤降至17%。
这种"学新忘旧"的特征,被强化学习领域权威理查德·萨顿称为"智能进化道路上的化石燃料模式"。
技术瓶颈的根源在于现有研究范式。
深度神经网络虽在特定任务中表现优异,但其固定架构导致两个结构性缺陷:一是神经元仅能执行预设功能,无法自主适应新知识;二是系统整体依赖算力堆砌,参数规模与性能提升呈边际递减效应。
萨顿团队研究发现,当模型参数每扩大10倍时,所需能源消耗呈几何级数增长,但实际效用增幅却持续收窄。
持续学习技术的突破带来范式革新可能。
阿尔伯塔实验室开发的"去中心化神经网络",赋予每个神经元自主决策权:85%单元维持核心功能稳定,15%充当"知识探索者"。
这种动态调节机制成功破解了"灾难性遗忘"难题——2026年展示的"阿尔伯塔-07"系统,可同步提升钢琴演奏与围棋对弈能力而不产生混淆。
更值得注意的是,该系统连续运行427天未重启,日均算力需求增幅控制在5%以内,却能持续消化海量新信息。
行业转型已显现实际影响。
多家头部企业开始调整研发方向:原计划投入50亿美元升级GPU集群的某科技巨头,转而斥资收购持续学习初创企业;知名游戏引擎创始人约翰·卡马克与萨顿合作搭建的"永生网络",在保持万亿级参数规模同时,能耗仅为同类产品的1/20。
市场分析指出,这种转变不仅关乎技术路线选择,更涉及全球算力资源的战略再分配。
展望未来,持续学习可能重塑智能进化轨迹。
萨顿团队最新发布的"经验学习速率曲线"显示,其性能增长已超越传统Scaling Law模型。
中国科学院自动化研究所专家表示,该技术若实现规模化应用,可使单台服务器的智能训练效率提升40倍,每年减少二氧化碳排放约1200万吨。
在各国争相布局新一代人工智能的背景下,这场从"暴力计算"到"高效进化"的范式转移,或将决定未来十年的技术竞争格局。
从追求“更大规模”到追求“更高学习效率”,并非否定算力与数据的价值,而是提醒行业回到智能的本质命题——让系统具备在真实世界中持续成长的能力。
能否在成本、能耗与安全边界内实现“不断学习而不遗忘”,将决定下一阶段技术演进的方向,也将影响智能应用走向更广范围、更深层次的生产生活场景。