2026年,智能手机的科技有了一个重大突破。虽然现在苹果的iPhone 17 Pro还没法给你每秒生2秒一个Token的体验,但它成功在本地跑通了拥有4000亿参数的大语言模型。 开源项目FlashMoE就是那个幕后功臣。它用了一种叫MoE的混合专家模型架构,把GPU和SSD的数据管道打通。只要你不把整个模型都塞进手机里,用流式传输的方式也能把大模型用上。测试下来,iPhone 17 Pro能把生成速度控制在每秒0.6个Token左右,相当于每1.5到2秒钟就能蹦出一个完整的单词。 虽说速度还有点慢,不过这足以证明以后的手机想让AI干活不用连网也能行了。 不过咱们也得承认现在有个硬伤:哪怕是把模型压缩再压缩到极致,想要动4000亿参数的身子骨,起码也得准备200GB的内存。可咱们手上的iPhone 17 Pro只有12GB的LPDDR5X大内存,这一下子差出去可不是一星半点。虽然现在这技术还不实用,但它毕竟给咱们指了条明路。 往后手机要是想让AI更聪明点,那就得在怎么提高处理效率上琢磨琢磨。等咱们把能耗和速度这对矛盾给摆平了,以后的手机肯定能玩出更多花样。 把大语言模型弄到手机里这件事,让AI能真正用到咱的日常生活中去。从帮忙接电话的语音助手到给你推送衣服的智能系统,以后的手机绝不仅仅是打打电话那么简单。 FlashMoE的这一波操作已经证明了这个路子能走通。等以后的技术再更上一层楼,肯定还会有更多像这样的黑科技冒出来。 只不过本地运行模式确实会多耗电。你要是想天天用最新的AI功能就得准备好充电线。所以怎么让手机既跑得快又不费电?这就是以后研究的重点了。 总之,iPhone 17 Pro这次能让4000亿参数的大模型在本地跑起来,绝对是件大事。它不光给手机的未来画了张新图纸,也为咱们在生活里用AI开了个好头。相信以后还会有更多好玩的AI新功能等着咱们去体验。