人工智能发展路径之争:持续学习模式挑战传统算力扩张范式

当前人工智能发展正面临根本性挑战。

2025年新加坡国立大学公布的数据显示,主流大语言模型训练已陷入"高耗低效"困境:全球顶级实验室开发的GPT-7模型,需调用相当于全人类三年产生的文本数据进行训练,性能提升却不足2%。

更严峻的是,传统神经网络在持续学习测试中,72小时后知识保留率骤降至17%。

这种"学新忘旧"的特征,被强化学习领域权威理查德·萨顿称为"智能进化道路上的化石燃料模式"。

技术瓶颈的根源在于现有研究范式。

深度神经网络虽在特定任务中表现优异,但其固定架构导致两个结构性缺陷:一是神经元仅能执行预设功能,无法自主适应新知识;二是系统整体依赖算力堆砌,参数规模与性能提升呈边际递减效应。

萨顿团队研究发现,当模型参数每扩大10倍时,所需能源消耗呈几何级数增长,但实际效用增幅却持续收窄。

持续学习技术的突破带来范式革新可能。

阿尔伯塔实验室开发的"去中心化神经网络",赋予每个神经元自主决策权:85%单元维持核心功能稳定,15%充当"知识探索者"。

这种动态调节机制成功破解了"灾难性遗忘"难题——2026年展示的"阿尔伯塔-07"系统,可同步提升钢琴演奏与围棋对弈能力而不产生混淆。

更值得注意的是,该系统连续运行427天未重启,日均算力需求增幅控制在5%以内,却能持续消化海量新信息。

行业转型已显现实际影响。

多家头部企业开始调整研发方向:原计划投入50亿美元升级GPU集群的某科技巨头,转而斥资收购持续学习初创企业;知名游戏引擎创始人约翰·卡马克与萨顿合作搭建的"永生网络",在保持万亿级参数规模同时,能耗仅为同类产品的1/20。

市场分析指出,这种转变不仅关乎技术路线选择,更涉及全球算力资源的战略再分配。

展望未来,持续学习可能重塑智能进化轨迹。

萨顿团队最新发布的"经验学习速率曲线"显示,其性能增长已超越传统Scaling Law模型。

中国科学院自动化研究所专家表示,该技术若实现规模化应用,可使单台服务器的智能训练效率提升40倍,每年减少二氧化碳排放约1200万吨。

在各国争相布局新一代人工智能的背景下,这场从"暴力计算"到"高效进化"的范式转移,或将决定未来十年的技术竞争格局。

从追求“更大规模”到追求“更高学习效率”,并非否定算力与数据的价值,而是提醒行业回到智能的本质命题——让系统具备在真实世界中持续成长的能力。

能否在成本、能耗与安全边界内实现“不断学习而不遗忘”,将决定下一阶段技术演进的方向,也将影响智能应用走向更广范围、更深层次的生产生活场景。