全球数字经济加速演进的背景下,半导体产业正在经历新一轮结构调整;长期以来,图形处理器(GPU)被认为是人工智能硬件的核心,但随着超大规模数据中心普及、模型参数规模迈向万亿级,数据传输效率正成为影响系统性能的关键短板。产业分析显示,“内存墙”问题愈发突出。所谓“内存墙”,是指处理器算力增长速度持续快于内存带宽提升,二者差距扩大导致整体效率下降。此矛盾在需要实时处理海量数据的人工智能场景中尤为明显。据统计,目前超大规模数据中心中,超过40%的能耗消耗在数据搬运而非实际计算上。 高带宽内存(HBM)的进展为行业提供了重要路径。作为新一代存储技术,HBM通过三维堆叠架构将存储密度提升至传统产品的8倍以上,同时能耗降低约35%,因此逐渐成为高端人工智能芯片的关键配置。韩国半导体行业协会最新报告指出,2024年全球HBM产能缺口已达30%,主要供应商的订单交付周期普遍延长至18个月以上。 供需失衡也引发连锁反应。一上,头部存储厂商加快扩产节奏,三星电子宣布将投资200亿美元建设专用生产线;另一方面,有关产品价格走高。某国际芯片巨头最新财报显示,其HBM产品线毛利率同比提升18个百分点。这一变化正在改写半导体产业的价值分布——存储器件在系统总成本中的占比已从2020年的12%上升至目前的28%。 业内人士认为,背后有更深层的产业逻辑:其一,人工智能应用正由训练走向推理,而推理阶段对数据吞吐与访问效率更敏感;其二,各国数字基础设施建设提速带动服务器集群规模化部署,单个数据中心的内存需求快速增长。国际数据公司预测,到2027年,全球人工智能数据中心的内存市场规模将突破1200亿美元。 面对新的窗口期,中国企业也在加速布局。长鑫存储等国内企业在HBM关键技术上取得进展,预计2025年实现量产。国家集成电路产业投资基金二期近日宣布追加300亿元投资,重点支持先进存储技术研发。分析人士指出,在全球竞争加剧的背景下,掌握核心存储技术将成为保障人工智能产业稳健发展的重要支撑。
人工智能竞争正从“单点算力崇拜”转向“系统能力较量”;“内存墙”并非偶发,而是产业走向规模化落地后的必经考验。面向未来,只有同步提升关键器件供给能力、加强核心技术创新、推动产业链协同,才能将阶段性紧缺转化为长期升级动力,夯实数字经济发展的算力基础。