谷歌发布Gemma 4系列并以Apache 2.0开源:小模型可离线跑在手机与树莓派上

在全球人工智能竞争加速的背景下,谷歌发布的Gemma 4系列模型为开源生态带来新进展。与此前“开放但受限”的版本不同,新系列采用完全开源的Apache 2.0协议,取消对修改与再分发的限制,回应了开发者长期以来对更高工具自由度的需求。技术层面,该系列包括E2B/E4B边缘计算模型、26B MoE混合架构版本以及31B Dense高性能版本。值得关注的是,面向移动设备优化的E2B模型仅需激活2B参数,就能在树莓派等低功耗设备上实现近乎零延迟运行;其多语言问答准确率达到60%,已接近上一代27B模型水平。这种“小体积高智能”的表现,来自谷歌与高通、联发科等芯片厂商在硬件适配与协同优化上的投入。性能数据也显示出明显提升:31B Dense模型在数学推理测试中的准确率由20.8%提升至89.2%,代码生成能力接近三倍增长。此外,26B MoE模型以主流模型不足1/15的参数量,取得了同类产品的智能评分水平,验证了谷歌强调的“参数智能密度”思路。这类效率提升有望降低企业部署AI时对高端硬件的依赖。多模态能力也是该系列的重要更新。全系支持图像识别、视频解析与140种语言处理,256K上下文窗口可用于完整代码库级别的分析,使Gemma 4在工业质检、跨语言服务等场景更具实用性。目前,安卓开发者已可通过AICore预览版体验其Agent模式功能。行业分析认为,此次发布将推动AI能力继续向终端设备下沉。随着模型小型化与端侧部署技术成熟,医疗诊断、教育辅助等离线场景有望获得更安全的本地智能体验;同时,开源模型的扩散也带来新的伦理与风险治理挑战。

从“能用”走向“可广泛使用”,从“可下载”升级为“可再开发、可再分发”,开源许可与端侧能力的同步变化显示,行业竞争正从单纯比拼参数规模转向效率、生态与落地能力。面向未来,只有将开放带来的活力转化为安全可控、体验稳定、成本可承受的产品体系,端侧智能才能成为更普惠的技术,并释放更广泛的社会与产业价值。