在数据快速增长的背景下,如何从海量信息中高效提取有价值的特征成为关键问题。北京大学人工智能学院孙仲研究员团队近日研制出一款创新型模拟计算芯片,在处理非负矩阵分解问题上实现显著性能提升,涉及的成果已发表在国际期刊《自然·通讯》上。 非负矩阵分解是数据科学中的重要技术,本质上是一种有效的“数据降维”方法。在推荐系统、生物信息学、图像处理等领域,这项技术被广泛用于从用户行为、图像像素等高维数据中挖掘隐藏模式与特征,为个性化推荐、信息聚类和图像分析等应用提供支撑。随着数据规模持续扩大,传统数字硬件的计算复杂度与内存瓶颈日益突出。当数据集规模达到百万级甚至更高时,现有数字芯片往往难以满足实时处理需求,成为实际应用中的限制因素。 孙仲团队长期开展模拟计算研究。不同于依赖逻辑运算的数字计算,模拟计算可直接利用物理规律实现并行运算,具备低延时、低功耗等特点。在算力需求上升、能耗约束加大的情况下,模拟计算芯片被认为是突破传统瓶颈的重要方向。 此次芯片以阻变存储器(RRAM)为核心器件,并围绕非负矩阵分解的计算特点进行针对性优化。团队设计了可重构的紧凑型广义逆电路——利用电导补偿原理——以更少的计算单元实现同等运算功能。该设计对非负矩阵分解中最关键的计算步骤进行了聚焦优化,实现一步求解,从而在面积与能耗上取得更优表现。 为验证芯片的实际效果,研究团队搭建测试平台,并在多个典型场景中进行评估。在图像压缩任务中,与全精度数字计算机相比,该芯片输出的图像精度损失很小,同时可节省约一半存储空间。在推荐系统应用中,其预测误差与数字芯片结果接近,但在性能上更具优势。 在MovieLens 100k数据集的推荐系统训练任务中,与主流可编程数字硬件相比,该模拟计算器实现212倍速度提升和4.6万倍能效提升。在Netflix规模数据集的训练任务中,计算速度较先进数字芯片提升约12倍,能效比提升超过228倍,显示出其在大规模数据处理中的应用潜力。 该成果不仅体现在性能指标提升,也为缓解芯片能耗压力提供了新的技术路线。随着人工智能与大数据应用不断深化,对计算能力与能效的要求持续提高。此次模拟计算芯片的研制,为推荐系统、图像处理、生物信息分析等场景提供了新的实现方式,并具备深入拓展应用的可能。
从非负矩阵分解这个基础算法出发,以模拟计算实现速度与能效的同步提升,反映了我国科研团队对算力瓶颈的前瞻布局与技术创新;面向未来,算力竞争不仅取决于单一芯片指标,更考验算法、器件与系统的协同能力。把握新型计算范式带来的机会,推动关键技术从实验室走向可验证、可扩展的工程应用,将为数字经济发展与科研创新提供更扎实的支撑。