大家知道那个 Mac 吧?听说最近他们搞了个挺有意思的事,就是把 AI 算力直接搬进机器里。像以前那种 CPU 单独一个芯片,AI 又是另一个芯片的干活方式,现在可不同了。苹果把神经加速器直接塞到了 M 系列芯片的 GPU 核心里,这就意味着图形处理和智能计算不再分开了。以前数据在两个芯片之间跑来跑去,现在计算单元直接长在图形单元里,处理起复杂任务来就快多了。据说 M5 芯片跑生成式 AI 图像的效率比 M1 提高了整整 8 倍呢。这是因为神经加速器和 GPU 核心深度融合了,每一步运算都能就近解决,所以速度才那么快。这个神经加速器其实就是把算力拆成了“细胞级”,这么一来,延迟也压到了最低。 内存方面,苹果也有一手。Mac 本地跑大模型需要大量的内存支持,苹果就搞了一个统一内存架构。他们把 M5 Max 的内存拉到了 128GB,带宽更是高达 614GB/s;就算是 M5 Pro 也有 64GB 可选。这么庞大的内存池意味着整个模型可以直接常驻本地运行,不需要去云端调参数了。实验室测下来的数据很有说服力:128GB 的 M5 Max 能轻松跑 1250 亿参数以内的大模型;跑 Qwen3-Next-800 亿版本的时候,第一词元响应时间只有约 3 秒,生成速度能达到 72 词元每秒。 这个能效比也很厉害。因为垂直整合带来了极致能效比,所以 MacBook Air 这种无风扇设计的机器在运行《赛博朋克2077》的时候,SoC 功耗只有 7-8W 左右,整机也不过 19W。用户可以不用插电源、也不用连 Wi-Fi,把 AI 推理任务直接推到膝盖上完成。而且隐私方面也更安全了,敏感数据都锁在本地硬件里。升级后的 Siri、还有第三方工具 Perplexity 的 Personal Computer 智能体都能在 M5 芯片上完成实时推理,不用把语音或者文本上传到云端去了。 对用户来说好处多多啊。既省掉了持续订阅的费用(毕竟不用总连网),又不用担心数据泄露的问题。这样一来 Mac 就不光是一个普通的计算平台了,而是变成了一个随身携带的 AI 引擎。虽然他们不追求参数最大,但给专业用户和开发者提供了一个“随时可用、安全、流畅”的生产力通道——AI 就在眼前。 总之呢这次更新确实挺猛的:算力直接塞进芯片里了(神经加速器),内存给足了(128GB),功耗还控制得很好(无风扇),还有隐私也很放心。苹果是真的把芯片、内存、能效比打包成了一套完整方案,让生成式 AI 从“云端服务”变成了“硬件能力”。