从“堆算力”到“会学习”:持续学习研究挑战大模型扩张路径的瓶颈

当前人工智能发展正遭遇明显的算力瓶颈;最新研究显示,主流大模型的性能提升正在逼近边际效益:参数规模每扩大10倍,性能增幅不足2%。以GPT-7为例,其训练需要处理相当于全人类三年产生的文本数据,但知识保留率在72小时后会降至17%。这种高能耗、低产出的路线,被业内形容为“用化石燃料驱动电动车”。

技术演进的经验反复证明,真正的突破往往不是在既有路径上做线性加法,而是回到问题本身,重新审视底层逻辑。持续投入算力当然能推动性能提升,但如果把它当作唯一答案,可能会错过更根本的方向。如何让机器具备真正意义上的持续学习与自主进化能力,也许才是最值得长期投入的核心命题。答案未必立刻清晰,但提出这个问题本身,就是向前的一步。