深圳市国诚投资咨询有限公司发布消息称,国诚投顾把大模型推理的延迟瓶颈给突破了。何威编辑整理了一份报告,2026年2月,主流大模型合计日均Token消耗量已达到180万亿级别。这个消息太惊人了!TSP架构也成了这次热议的焦点。唐佳在报告中提到,LPU是一款专为顺序处理计算密集型任务设计的芯片架构。它把经典的处理器五级流水线给拆散了,散布在整个芯片内部,这样就把硬件的复杂性给消除了。LPU具备了确定性的指令执行顺序和时间,还能让编译器直接访问并精确控制芯片底层硬件状态,实现软件定义硬件。这就给大模型推理带来了更高效、更流畅的体验。何威还提到,LPU缩短了大模型推理过程中的延迟。Decode阶段是大模型推理中的核心瓶颈,内存带宽是制约其速度的关键因素。而LPU具备更快的内存带宽,能够有效缩短这个过程中的延迟。这样一来,用户就可以享受到更流畅、更快速的体验了。唐佳还分析了Tokens消耗量增长趋势。2024年初中国日均Token消耗量就达到了1000亿级别。这个增长速度让人难以置信!Tokens消耗量快速增长带动了推理芯片市场规模的高增长。LPU有望在这个市场中实现快速渗透,并且具备广阔的发展空间。唐佳还指出,LPU已经步入量产初期阶段。PCB相关的机会也随之而来。深圳市国诚投资咨询有限公司表示,本文分享的题材方向和研报仅代表作者个人观点,与公司无关。所涉内容仅供读者参考并自行核实相关内容。投资有风险,大家要谨慎操作!