Google 最近推出了全新的多模态开源 AI 模型 Gemma 3n,这款模型的最大卖点在于它能在智能手机上仅需 2GB 内存即可本地运行,为开发者提供流畅的 AI 应用体验。Gemma 3n 不仅支持文字输入,还兼容声音、图像及视频资料处理,让用户得以在移动设备上实现完整的多模态功能。
作为 Google Gemma 模型家族的一部分,Gemma 3n 的开发理念一贯强调开放性与自定义性,此次正式发布的 E4B 主模型和 E2B 子模型均可在 Hugging Face 及 Kaggle 平台上下载。这些模型的架构以 “MatFormer” 技术训练,实现了如俄罗斯套娃般的结构,其中 E2B 作为 E4B 的精简副本,能够独立执行。
专为移动平台设计的 E2B 模型拥有 5B 参数,并成功将内存使用量压缩至仅 2GB,这一切得益于其创新的《Per-Layer Embeddings(PLE)》设计,显著减轻了模型执行时的数据访问负担,使得高内存需求的模型能够在智能手机上顺畅运行。
值得一提的是,Gemma 3n 的 E4B 模型拥有 8B 参数,实测显示其运行时的内存消耗与传统的 4B 模型相仿,仅需 3GB。在性能方面,Gemma 3n E4B 更是超越了 GPT 4.1-nano,并且击败了体积更大的 Llama 4 Maverick 17B-128E 和 Phi-4 等模型。
目前,Gemma 3n 支持多个执行环境,包括 Hugging Face Transformers、llama.cpp、Google AI Edge、Ollama 和 MLX 等,用户还可以通过 Pixel 8 Pro 等移动设备安装谷歌人工智能边缘画廊应用进行本地运行。此外,用户还能在 Google AI Studio 测试其聊天功能。
Google 通过 Gemma 3n 展现了 AI 模型不再受硬件限制的可能性,这种开放下载和低内存要求的设计,可能会推动智能手机和物联网设备迅速导入多模态 AI 应用的未来。



