莫斯科团队提出“记忆梯度写入”新方案 提升大语言模型长文本处理效率与速度

(问题)随着大模型在政务服务、科研辅助、企业知识库等场景加速落地,长文档理解与检索已成为关键能力之一;但在实际应用中,模型常常需要处理数千字甚至更长的合同、报告、论文和业务规程。传统做法要么保存大量中间状态,要么通过一次性摘要进行压缩:前者带来存储压力和时延上升,后者一旦摘要失真就难以修正,进而影响回答准确性。如何在“记得住”和“算得起”之间找到平衡,正成为长文本应用体验的主要瓶颈之一。

这项来自莫斯科的研究为长文本处理提供了新的解题思路,也提示我们:借鉴生物神经系统的记忆机制,可能是提升智能系统效率的一条重要路径。当机器学会更有选择地保留信息,人机协同的体验有望深入改善。正如论文通讯作者伊万诺夫院士所言:“最高效的记忆不在于存储多少,而在于如何智慧地选择。”